Tecnología

La Eurocámara avanza en la regulación de la inteligencia artificial y chatbots como ChatGPT

Inteligencia artificial

Inteligencia artificial

Las comisiones de Mercado Interior y de Libertades Civiles del Parlamento Europeo acordaron este jueves su posición para negociar nuevas normas para mitigar los posibles riesgos de herramientas de inteligencia artificial generativa que llevan a cabo chatbots como ChatGPT, como la distribución de noticias falsas o la violación de los derechos de autor.

Son una serie de normas que se incluyeron en la ley de inteligencia artificial que se está negociando en Bruselas y que la comisión parlamentaria aprobó por 84 votos a favor, siete en contra y doce abstenciones.

"Con estas medidas, actuamos fuertemente ante estos retos", afirmó el ponente de la ley, el eurodiputado socialdemócrata italiano Brando Benifei. De incorporarse íntegras estas disposiciones a la ley final, los desarrolladores de estas herramientas que quieran introducirlas en el mercado tendrán que cumplir una serie de normas:

  • Demostrar que han reducido los riesgos que puedan generar a la salud, a los derechos fundamentales y al sistema democrático y someterse además al análisis de expertos independientes.
  • Los usuarios que con estos programas generen o manipulen vídeos, imágenes o sonidos que puedan inducir erróneamente a otras personas a pensar que son auténticos o verídicos deberán informar al resto de ciudadanos que el contenido es falso.
  • Los creadores de la tecnología tendrán que publicar "un resumen suficientemente detallado" sobre los datos protegidos con derechos de autor que utilizan para entrenar a los sistemas de inteligencia artificial.
  • Las herramientas se tendrán que diseñar de tal forma que a lo largo de su vida útil tengan "niveles apropiados" de rendimiento, previsibilidad, interpretabilidad, corregibilidad, seguridad y ciberseguridad.

Prohibiciones y conductas de alto riesgo

Más allá de prever reglas específicas para estos sistemas autónomos de generación de contenido, la ley de inteligencia artificial añade estas otras medidas:

  • Prohíbe los sistemas de vigilancia masiva en tiempo real en espacios públicos -salvo para prevenir delitos y localizar a posibles víctimas-.
  • Veta los modelos que se sirvan de técnicas subliminales para alterar de manera "sustancial" el comportamiento de una persona, sin que sea consciente de ello.
  • Califica de alto riesgo a toda una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE. Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios.
  • La Eurocámara quiere que las empresas que incumplan la normativa puedan pagar una multa de hasta el 7% de su facturación anual mundial.

Está previsto que el pleno del Parlamento Europeo confirme su posición negociadora para esta norma el próximo mes de junio y la Eurocámara tendrá que negociar después con la Comisión Europea y el Consejo de la UE el texto definitivo de la ley de inteligencia artificial.

Vestager insta a regular el uso de la inteligencia artificial a nivel global

El uso de las tecnologías de IA debería regularse de forma central a nivel europeo, así como a escala global para prevenir posibles abusos a través de redes interconectadas, afirmó la comisaria europea de Competencia, Margrethe Vestager.

"Un enfoque descentralizado no puede funcionar", declaró, y destacó que existen muchos ámbitos en los que la IA se puede emplear de forma positiva, como los diagnósticos médicos, la regulación del tráfico y la lucha contra el cambio climático.

Vestager indicó que la regulación de esta tecnología debe garantizar que los "sesgos humanos" no afecten al sistema a la hora de tomar decisiones, por ejemplo, sobre la concesión de hipotecas u otros créditos.

Además, los ciudadanos europeos deben ser conscientes en todo momento de si están interactuando con una IA en lugar de con un ser humano, o si están siendo expuestos a imágenes generadas a través de dicha tecnología.

Los sistemas de puntuación social y la vigilancia en tiempo real de los ciudadanos debe quedar prohibida, agregó la comisaria, que afirmó que Estados Unidos ha adoptado a este respecto el mismo enfoque que la Unión Europea (UE) y que hace falta un debate a nivel global sobre dichas regulaciones.

Ante la pregunta de EFE de si en un futuro la UE podrá necesitar barreras o filtros electrónicos para restringir la expansión de IA con objetivos malévolos, la comisaria afirmó que es preciso garantizar que "nuestras redes son seguras", en particular ante la aceleración de desarrollo de dichas tecnologías.

más noticias de TECNOLOGÍA Ir a la sección Tecnología »

Comentar

0 Comentarios

    Más comentarios