Inteligencia artificial: riesgos reales frente a amenazas hipotéticas

Shutterstock / gopixa

Nuria Oliver, Universidad de Alicante; Bernhard Schölkopf, Max Planck Institute of Animal Behavior; Florence d’Alché-Buc, Télécom Paris – Institut Mines-Télécom; Nada Lavrač, University of Nova Gorica; Nicolò Cesa-Bianchi, University of Milan; Sepp Hochreiter, Johannes Kepler University Linz y Serge Belongie, University of Copenhagen

En los últimos meses, la inteligencia artificial (IA) ha entrado en la conversación mundial a raíz de la adopción generalizada de herramientas de IA generativa –como los chatbots y los programas de generación automática de imágenes– y la consiguiente preocupación suscitada en relación con los hipotéticos riesgos existenciales que plantea.

Habiendo trabajado en IA durante décadas, este aumento de popularidad y el sensacionalismo que le ha seguido nos han pillado por sorpresa. Últimamente no es raro leer titulares como: ¿Puede la inteligencia artificial acabar con la civilización humana? La percepción pública en este asunto parece desproporcionadamente dominada por el miedo a amenazas totalmente especulativas.

Como miembros del Laboratorio Europeo para el Aprendizaje y los Sistemas Inteligentes (ELLIS), una organización de investigación centrada en el aprendizaje automático, creemos que nos corresponde poner estos riesgos en perspectiva, especialmente en el contexto de las organizaciones gubernamentales que contemplan acciones reguladoras con aportaciones de las empresas tecnológicas.

¿Qué es la IA?

La IA es una disciplina dentro de la informática o la ingeniería que tomó forma en la década de 1950. Aspira a construir sistemas computacionales inteligentes que emulen la inteligencia humana, ya de por sí diversa y compleja.

Los sistemas de IA suelen dividirse en tres niveles de competencia:

  1. La IA específica o débil, que engloba sistemas de IA capaces de realizar tareas específicas o resolver problemas concretos, con un nivel de rendimiento hoy en día superior al de los humanos. Todos los sistemas de IA actuales son IA específica: los chatbots como chatGPT, los asistentes de voz como Siri y Alexa, los sistemas de reconocimiento de imágenes y los algoritmos de recomendación.
  2. La IA general o fuerte, que muestra un nivel de inteligencia similar al de los seres humanos, incluida la capacidad de comprender, aprender y aplicar conocimientos en una amplia gama de tareas. Incorpora conceptos como la conciencia. La IA general es en gran medida hipotética y no se ha logrado hasta la fecha.
  3. Súper IA, que se refiere a sistemas de IA con una inteligencia superior a la humana en todas las tareas. Por definición, somos incapaces de entender este tipo de inteligencia del mismo modo que una hormiga no es capaz de entender la nuestra. La súper IA es un concepto aún más especulativo que la IA general.

La Inteligencia Artificial es una disciplina transversal que puede aplicarse a cualquier campo, desde la educación al transporte, la sanidad, el derecho o la manufactura. Por tanto, está cambiando profundamente todos los aspectos de la sociedad. Incluso en su forma de “IA específica”, tiene un importante potencial para generar un crecimiento económico sostenible y ayudarnos a afrontar los retos más acuciantes del siglo XXI, como el cambio climático, las pandemias y la desigualdad.

Desafíos que plantean los sistemas de IA actuales

La adopción durante la última década de sistemas de toma de decisiones basados en IA en una amplia gama de áreas –desde las redes sociales hasta el mercado laboral– también plantea importantes riesgos y retos sociales que es necesario comprender y abordar.

La escala y velocidad sin precedentes con que los modelos preentrenados de IA generativa (GPT) han sido adoptados por cientos de millones de personas en todo el mundo está sometiendo a nuestros sistemas sociales y reguladores a una tensión cada vez mayor.

Es evidente que la Inteligencia Artificial plantea importantes retos que deberían ser nuestra prioridad, incluyendo:

  • La manipulación del comportamiento humano por algoritmos de IA con consecuencias sociales potencialmente devastadoras en la difusión de información falsa, la formación de opiniones públicas y los resultados de los procesos democráticos.
  • Los sesgos y la discriminación algorítmicos que no sólo perpetúan sino que exacerban los estereotipos, los patrones de discriminación o incluso la opresión.
  • La falta de transparencia tanto en los modelos como en sus usos.
  • La violación de la privacidad y el uso de cantidades masivas de datos de entrenamiento sin consentimiento ni compensación para sus creadores.
  • La explotación de los trabajadores que anotan, entrenan y corrigen los sistemas de IA, muchos de ellos ubicados en países en desarrollo con salarios miserables.
  • La enorme huella de carbono de los grandes centros de datos y redes neuronales que se necesitan para construir estos sistemas de IA.
  • La falta de veracidad de los sistemas de IA generativa que inventan contenidos creíbles (imágenes, textos, audios, vídeos…) sin correspondencia con el mundo real.
  • La fragilidad de estos grandes modelos que pueden cometer errores y ser engañados.
  • La profunda transformación del mercado laboral con el consecuente desplazamiento de empleos y profesiones.
  • La concentración de poder en manos de un oligopolio de quienes controlan hoy los sistemas de IA.

¿Es realmente la IA un riesgo existencial para la humanidad?

Por desgracia, en lugar de centrarse en estos riesgos tangibles, la conversación pública –sobre todo las recientes cartas abiertas– se ha centrado principalmente en un hipotético riesgo existencial de la IA.

Un riesgo existencial es un acontecimiento o escenario potencial que representa una amenaza para la existencia continuada de la humanidad, con consecuencias que podrían dañar o destruir irreversiblemente la civilización humana y, por tanto, llevar a la extinción de nuestra especie. Un acontecimiento catastrófico global (por ejemplo, el impacto de un asteroide o una pandemia), la destrucción de un planeta habitable (debido, por ejemplo, al cambio climático, la deforestación o el agotamiento de recursos críticos como el agua y el aire limpio) o una guerra nuclear mundial son ejemplos de riesgos existenciales.

No cabe duda de que nuestra existencia no está exenta de riesgos y de que la evolución futura es difícil de predecir. Ante esta incertidumbre, debemos priorizar nuestros esfuerzos. La remota posibilidad de una súper inteligencia incontrolada debe considerarse en su contexto, y esto incluye el contexto de 3 600 millones de personas en el mundo que son altamente vulnerables debido al cambio climático; los aproximadamente 1 000 millones de personas que viven con menos de 1 dólar al día; o los 2 000 millones de personas afectadas por la guerra, los conflictos y la fragilidad. Se trata de seres humanos reales cuyas vidas corren grave peligro hoy en día, sin que ninguna súper IA intervenga.

Centrarse en un hipotético riesgo existencial desvía nuestra atención de los graves retos documentados que la IA plantea en la actualidad y contribuye a generar un pánico innecesario en la población.

Matizar estas cuestiones, y diseñar soluciones concretas y coordinadas que permitan actuar para afrontar los retos actuales reales de la IA, incluyendo la regulación, es fundamental. Abordar estos retos requiere la colaboración y participación de los sectores más afectados de la sociedad, junto con los necesarios conocimientos técnicos y de gobernanza. Es hora de actuar con ambición, sabiduría y en cooperación.


Los autores de este artículo son miembros del Consejo del Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes (ELLIS).The Conversation

Nuria Oliver, Directora de la Fundación ELLIS Alicante y profesora honoraria de la Universidad de Alicante, Universidad de Alicante; Bernhard Schölkopf, , Max Planck Institute of Animal Behavior; Florence d’Alché-Buc, Chair professor, Télécom Paris – Institut Mines-Télécom; Nada Lavrač, PhD, Research Councillor at Department of Knowledge Technologies, Jožef Stefan Institute and Professor, University of Nova Gorica; Nicolò Cesa-Bianchi, Professor, University of Milan; Sepp Hochreiter, , Johannes Kepler University Linz y Serge Belongie, Professor, University of Copenhagen

Este artículo fue publicado originalmente en The Conversation. Lea el original.

La entrada Inteligencia artificial: riesgos reales frente a amenazas hipotéticas se publicó primero en Viajes, opinión y curiosidades.

Powered by WPeMatico

Ir a la fuente
Author: viajes24horas