Formas en que los gobiernos pueden regular las herramientas de IA

Que debería haber regulaciones específicas para regular las tecnologías de IA es una noción común. La mayoría de los gobiernos, los desarrolladores de productos de IA e incluso los usuarios comunes están de acuerdo. Desafortunadamente, la mejor manera de organizar este campo de rápido crecimiento es un enigma que aún no se ha resuelto.

Si no se controlan, las tecnologías de IA pueden tener un impacto negativo en nuestra forma de vida y amenazar nuestra propia existencia. Pero, ¿cómo pueden los gobiernos navegar el laberinto de desafíos que conlleva este campo en rápida evolución y enfrentar los obstáculos que se avecinan? Verificar La humanidad está en peligro de extinción debido a la inteligencia artificial. ¿Cómo se puede detener?

Formas en que los gobiernos pueden regular las herramientas de IA - AI

1. Normativa de privacidad y protección de datos

Formas en que los gobiernos pueden regular las herramientas de IA - AI

La privacidad y la seguridad de los datos es una de las principales preocupaciones de las tecnologías de IA. Los sistemas de inteligencia artificial son modelos que tienen hambre de acceso a varios datos. Necesitan datos para proporcionar respuestas adecuadas y completar varias tareas, para ser efectivos y mejorar sus capacidades. Si bien esto aparentemente no es un problema, la forma en que se obtienen estos datos, la naturaleza de los mismos y cómo se procesan y almacenan es uno de los puntos más importantes de debate en torno a las regulaciones de IA.

Dado esto, el curso lógico a seguir es implementar normas estrictas de privacidad de datos que rijan la forma en que se recopilan, almacenan y procesan los datos, así como los derechos de las personas, cuyos datos se utilizan, para controlarlos. Las preguntas que es probable que estas regulaciones aborden son:

  1. ¿Qué tipo de datos se pueden recopilar?
  2. ¿Deberían considerarse algunos datos privados entre los que la IA no debería acceder?
  3. ¿Cómo deben manejar las empresas de IA los datos personales confidenciales, como los registros de salud o la información biométrica?
  4. ¿Deberían las empresas de IA implementar mecanismos que permitan a las personas solicitar fácilmente la eliminación o corrección de sus datos personales?
  5. ¿Cuáles son las consecuencias para las empresas de IA que no cumplen con las normas de privacidad de datos? ¿Cómo se debe monitorear el cumplimiento y cómo se debe garantizar la aplicación?
  6. Quizás lo más importante, ¿qué estándar deberían aplicar las empresas de IA para garantizar la integridad de la naturaleza confidencial de la información que poseen?

Estas y algunas otras preguntas formaron el quid de por qué ChatGPT fue prohibido temporalmente en Italia. A menos que se aborden estas preocupaciones, el campo de la IA podría ser la pesadilla de la privacidad de los datos, y la prohibición de Italia podría convertirse en un modelo de prohibición adoptado por otros países del mundo. Verificar Algunos mitos comunes sobre la inteligencia artificial que no son ciertos.

2. Desarrollar un marco ético para la IA

Formas en que los gobiernos pueden regular las herramientas de IA - AI

Las empresas de IA a menudo se enorgullecen de cumplir con las pautas éticas en el desarrollo de sistemas de IA. Al menos en el papel, todos son defensores del desarrollo responsable y ético de la IA. En los medios, los ejecutivos de Google han enfatizado cómo la empresa se toma muy en serio la seguridad y la ética de la IA. Asimismo, "IA segura y ética" es el lema del CEO de OpenAI, Sam Altman. Lo cual es muy encomiable.

Pero, ¿quién hace las reglas? ¿Quién decide qué pautas éticas de IA son lo suficientemente buenas? ¿Quién decide cómo es el desarrollo de una IA segura? Por el momento, parece que cada empresa de IA tiene su propio papel en el desarrollo de una IA responsable y ética. OpenAI, Anthropic, Google, Meta, Microsoft, todos. Confiar simplemente en que las empresas de inteligencia artificial hagan lo correcto es peligroso.

Las consecuencias de un espacio de IA no supervisado podrían ser catastróficas. Permitir que las empresas individuales decidan qué pautas éticas adoptar y cuáles evitar es como caminar dormido en el camino hacia el apocalipsis de la IA. ¿la solución? Un marco ético claro para la IA garantiza:

  1. Los sistemas de IA no dañan ni discriminan injustamente a ciertas personas o grupos por motivos de raza, género o estatus socioeconómico.
  2. Los sistemas de IA son seguros y confiables, y minimizan el riesgo de consecuencias no deseadas o comportamiento dañino.
  3. Los sistemas de IA están diseñados teniendo en cuenta el impacto social más amplio de las tecnologías de IA.
  4. Que los humanos retengan el control final sobre los sistemas de IA y tomen sus decisiones de manera transparente.
  5. Los sistemas de IA están intencionalmente restringidos de manera que son beneficiosos para los humanos.

Verificar Las razones por las que los problemas de seguridad de la IA generativa están empeorando.

3. Una agencia reguladora dedicada

Formas en que los gobiernos pueden regular las herramientas de IA - AI

Debido a su impacto potencial en la civilización humana, la discusión sobre la seguridad de la IA suele ser paralela a la amenaza de una crisis de salud o un desastre nuclear. Evitar posibles accidentes nucleares requería una agencia dedicada como la NRC (Comisión Reguladora Nuclear) de EE. UU. Si bien para evitar los riesgos de graves crisis de salud fue necesario el establecimiento de la Administración de Alimentos y Medicamentos (FDA)

Del mismo modo, para garantizar que AI no se equivoque, es esencial una agencia dedicada similar a la Administración de Alimentos y Medicamentos y el Comité Noruego de Refugiados, ya que AI continúa logrando grandes avances en todas las áreas de nuestras vidas. Desafortunadamente, la cuestión de regular la IA dentro del país es difícil. Es probable que el funcionamiento de una agencia reguladora dedicada sea muy difícil sin una cooperación transfronteriza. Así como la Comisión Reguladora Nuclear (NRC) de EE. UU. necesita trabajar junto con la Agencia Internacional de Energía Atómica (OIEA) para estar en su mejor momento, cualquier agencia reguladora dedicada a la IA en el país también necesita una contraparte internacional.

Esta agencia será responsable de lo siguiente:

  1. Desarrollo de sistemas de inteligencia artificial.
  2. Garantizar el cumplimiento y la aplicación.
  3. Supervisar el proceso de revisión ética de los proyectos de IA.
  4. Colaboración entre países en materia de seguridad y ética de la IA.

4. Abordar las cuestiones de derechos de autor y propiedad intelectual

Formas en que los gobiernos pueden regular las herramientas de IA - AI

Las leyes de derechos de autor y los marcos legales existentes se están derrumbando frente a la IA. La forma en que se diseñan las herramientas de IA, especialmente las herramientas de IA generativa, hace que parezca una máquina de infracción de derechos de autor sancionada públicamente sobre la que no se puede hacer nada.

¿cómo? Bueno, muchos de los sistemas de inteligencia artificial actuales se entrenan con materiales con derechos de autor. Ya sabes, artículos con derechos de autor, canciones con derechos de autor, imágenes con derechos de autor, etc. Así es como herramientas como ChatGPT, Bing AI y Google Bard pueden hacer las cosas geniales que hacen.

Si bien estos sistemas claramente aprovechan la propiedad intelectual de las personas, la forma en que lo hacen estos sistemas de IA no es diferente a la de un ser humano que lee un libro con derechos de autor, escucha canciones con derechos de autor o mira imágenes con derechos de autor.

Puede leer un libro con derechos de autor, aprender nuevos datos de él y utilizar esos datos como base para su propio libro. También puedes escuchar una canción con derechos de autor para inspirarte y crear tu propia música. En cada caso, he usado material protegido por derechos de autor, pero esto no significa necesariamente que el producto derivado infrinja los derechos de autor del original.

Si bien esta es una explicación lógica del caos que causan las tecnologías de IA en las leyes de derechos de autor, aún perjudica a los propietarios de derechos de autor y propiedad intelectual. Ante esto, la normativa es necesaria para:

  1. Defina claramente la responsabilidad y responsabilidades de todas las partes involucradas en el ciclo de vida de un sistema de IA. Esto incluye aclarar los roles de cada parte, desde los desarrolladores de IA hasta los usuarios finales, para garantizar que las partes responsables rindan cuentas por cualquier infracción de derechos de autor u otras violaciones de propiedad intelectual cometidas por los sistemas de IA.
  2. Fortalecer los marcos de derechos de autor existentes y posiblemente introducir leyes de derechos de autor para la IA.
  3. Para garantizar la innovación en IA mientras se protegen los derechos de los creadores originales, las regulaciones de IA deben redefinir los conceptos de uso justo y trabajo transformador en el contexto del contenido generado por IA. Se necesitan definiciones y directrices más claras para garantizar que el espacio de la IA pueda seguir mejorando respetando los límites de los derechos de autor. Es necesario lograr un equilibrio entre la innovación y la preservación de los derechos de los creadores de contenido.
  4. Vías claras para la cooperación con los titulares de derechos. Si los sistemas de IA van a utilizar la propiedad intelectual de las personas de todos modos, debe haber vías o marcos claros para que los desarrolladores de IA y los titulares de derechos colaboren, especialmente en términos de compensación monetaria, si alguna vez se comercializa el trabajo derivado de esa propiedad intelectual.

Verificar ¿Quién posee los derechos de autor de las creaciones de IA? ¿Cómo funcionan los derechos de autor para estas obras de arte?

La regulación de la IA es una solución muy necesaria

Si bien la IA se ha convertido en una solución prometedora para muchos de nuestros problemas sociales, la IA en sí misma se está convirtiendo rápidamente en un problema que necesita una solución urgente. Es hora de dar un paso atrás, reflexionar y hacer las reformas necesarias para garantizar el impacto positivo de la IA en la sociedad. Necesitamos desesperadamente una recalibración urgente de nuestro enfoque para construir y usar sistemas de IA. Puedes ver ahora Factores clave a tener en cuenta al probar la precisión de los chatbots de IA.

DzTech

Soy ingeniero estatal con amplia experiencia en los campos de programación, creación de sitios web, SEO y redacción técnica. Me apasiona la tecnología y me dedico a brindar información de calidad al público. Puedo convertirme en un recurso más valioso para los usuarios que buscan información precisa y confiable sobre reseñas de productos y aplicaciones especializadas en diversos campos. Mi compromiso inquebrantable con la calidad y la precisión garantiza que la información proporcionada sea confiable y útil para la audiencia. La búsqueda constante de conocimiento me impulsa a estar al día con los últimos avances tecnológicos, asegurando que las ideas compartidas se transmitan de forma clara y accesible.
Ir al botón superior