Este sitio web ha sido traducido para su comodidad, pero ninguna traducción automática es perfecta. El texto oficial es la versión inglesa de la página web. Si surge alguna duda relacionada con la exactitud de la traducción, consulte la versión inglesa.

Se necesitan medidas urgentes para protegerse de los riesgos y daños de la Inteligencia Artificial y las tecnologías inmersivas

El informe Perspectivas de la Economía Digital 2024 (Volumen 1) de la OCDE, publicado el 14 de mayo, señala que en la actualidad existe un «vacío de política global por parte de los gobiernos» en relación con las tecnologías inmersivas, y los datos sugieren que la acción política se ha ...

Compartir artículo:

Seguir leyendo

DEO-14.5.24-2

El informe Perspectivas de la Economía Digital 2024 (Volumen 1) de la OCDE, publicado el 14 de mayo, señala que en la actualidad existe un «vacío de política global por parte de los gobiernos» en relación con las tecnologías inmersivas, y los datos sugieren que la acción política se ha centrado hasta ahora en apoyar su desarrollo. Asimismo, los rápidos avances en las capacidades de la IA están superando a la regulación y «aún no han ido acompañados de garantías de que la IA sea digna de confianza y segura». «Se necesita una acción rápida por parte de los gobiernos, ya que la IA y las tecnologías inmersivas siguen expandiéndose por toda la economía y la sociedad», afirma Veronica Nilsson, Secretaria General del TUAC. «Los principios y los códigos de conducta no son suficientes; se necesita regulación para salvaguardar los derechos humanos, proteger la democracia y garantizar un futuro tecnológico que beneficie a todos».

La inteligencia artificial ya está provocando rápidos cambios en el lugar de trabajo y el ritmo de su crecimiento se está acelerando.
Pedimos a la OCDE que guíe a los países en la adopción de medidas concretas para aplicar los Principios de la IA y garantizar que los humanos sigan controlando la trayectoria."

— Veronica Nilsson, Secretaria General del TUAC

Aunque la OCDE declara que «las implicaciones a largo plazo del rápido avance de los sistemas de IA siguen siendo en gran medida inciertas», está claro que los gobiernos deben adoptar medidas políticas rápidas para hacer frente a los riesgos que plantea la IA para los derechos humanos, la cohesión social y la democracia. Entre las principales conclusiones de las Perspectivas se incluyen:

  • La IA generativa está ahora tan avanzada que, en algunos casos, sus resultados pueden ser indistinguibles de los creados por humanos.
    Las investigaciones sugieren que no existe una forma fiable de detectar los contenidos generados por la IA, lo que significa que potencialmente podrían difundirse ampliamente sin ser detectados, facilitando la desinformación y la desinformación.
    Aunque está surgiendo una regulación en respuesta a este riesgo, el Outlook observa que el retraso en la política, la aplicación y el cumplimiento de la ley puede resultar perjudicial para la calidad del discurso público y la información en línea, lo que «puede ser difícil, si no imposible, de rectificar en los próximos años».
  • Los incidentes y peligros relacionados con la IA generativa se han multiplicado por 53 desde 2022, según reputados medios de comunicación mundiales.
    La OCDE define los «incidentes o peligros» de la IA como acontecimientos o circunstancias en los que el desarrollo, el uso o el mal funcionamiento de uno o más sistemas de IA pueden provocar, o ya han provocado, lesiones o daños a una persona; la interrupción de la gestión y el funcionamiento de infraestructuras críticas; violaciones de los derechos humanos; o daños a la propiedad, las comunidades o el medio ambiente.
  • «La IA podría perturbar significativamente los mercados laborales».
    Perspectivas señala que las investigaciones de los expertos han suscitado la preocupación de que una IA cada vez más capaz sustituya algunas tareas altamente cualificadas y con salarios elevados, lo que provocaría una perturbación económica y social.
    La IA también cambiará la naturaleza de muchos puestos de trabajo al alterar las competencias que se exigen a los trabajadores.
  • La IA podría marginar o excluir a determinados grupos al hacerse eco, automatizar y perpetuar los prejuicios sociales, los estereotipos y la discriminación en sus resultados.
    A medida que la IA se vuelve más compleja, puede exacerbar las divisiones entre las economías avanzadas y las emergentes, creando desigualdades en el acceso a las oportunidades y los recursos.
  • La gran cantidad de información personal que contienen algunos datos de entrenamiento de la IA suscita preocupación por el derecho a la intimidad.
    La IA tiene ahora la capacidad de inferir información personal no compartida con el modelo durante su entrenamiento, lo que le lleva a hacer predicciones y sacar conclusiones sobre los individuos basándose en la limitada información proporcionada.

Las Perspectivas también identifican una serie de oportunidades, riesgos y cuestiones normativas relacionadas con la realidad virtual (RV) y otras tecnologías inmersivas. Estas también se están desarrollando a un ritmo rápido y pueden estar en un «punto de inflexión» en términos de adopción. El uso de las tecnologías de RV da lugar a una recopilación sin precedentes de datos directamente relacionados con el entorno de los usuarios y sus cuerpos; 20 minutos en RV generan casi dos millones de puntos de datos únicos del lenguaje corporal. Las Perspectivas observan que esto podría dar lugar a un aumento de la elaboración de perfiles y de la selección de personas, así como a un seguimiento y vigilancia sin precedentes de las respuestas fisiológicas y las emociones de los individuos. Otros riesgos analizados en las Perspectivas incluyen las repercusiones sobre la salud y la seguridad, junto con un efecto a largo plazo sobre el desarrollo cognitivo de los niños. Al igual que ocurre con la IA, estas numerosas preocupaciones apuntan a la necesidad urgente de una regulación rápida y sólida que regule el desarrollo y el uso de la RV y otras tecnologías inmersivas.