Volver a la página principal

De la ciencia ficción a la realidad: Los verdaderos peligros de la IA

El auge de la inteligencia artificial representa un importante avance tecnológico que está a punto de revolucionar la sociedad, al igual que lo han hecho Internet, los ordenadores personales y los teléfonos móviles. Su impacto es omnipresente, infiltrándose en diversos aspectos de la vida humana, desde el trabajo y la educación hasta las actividades de ocio. El rápido avance de las redes neuronales está causando cierta preocupación, lo que nos lleva a explorar en este artículo los peligros potenciales que la inteligencia artificial puede suponer para la humanidad.

¿Es peligrosa la IA? ¿Quién ha expresado su preocupación?

En las películas de ciencia ficción, la idea de una inteligencia artificial incontrolable empeñada en dominar o destruir a la humanidad es un tema popular, como se ve en películas como "Matrix" y "Terminator". Con el rápido ritmo de los avances tecnológicos de hoy en día, puede resultar difícil para una persona normal mantenerse al día. El rápido progreso de la IA está haciendo que nuestras sociedades se adapten rápidamente, lo que provoca temores debido a la complejidad de estas tecnologías y al miedo innato del ser humano a lo desconocido.

No sólo los ciudadanos de a pie están preocupados por la IA, sino también los expertos en la materia. Por ejemplo, Geoffrey Hinton, a menudo llamado el "padrino de la IA", ha expresado sus propias aprensiones:

Estas cosas podrían llegar a ser más inteligentes que nosotros y decidir tomar el control, y tenemos que preocuparnos ahora de cómo evitar que eso ocurra.

Durante mucho tiempo pensé que nos faltaban entre 30 y 50 años para eso. Así que yo llamo a eso estar lejos de algo que tiene mayor inteligencia general que una persona. Ahora, creo que podemos estar mucho más cerca, tal vez sólo cinco años de distancia de eso.

Existe un serio peligro de que tengamos cosas más inteligentes que nosotros bastante pronto y que estas cosas puedan tener malos motivos y tomar el control.

El 22 de marzo de 2023 se publicó una carta abierta en la que se pedía que se detuviera el desarrollo de inteligencia artificial más potente que la GPT-4 durante un periodo de seis meses:

Los sistemas de inteligencia artificial contemporáneos se están volviendo competitivos para los humanos en tareas generales, y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas de IA potentes sólo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema.

La carta fue firmada por 1.800 líderes de empresas tecnológicas, 1.500 profesores, académicos e investigadores en el campo de la IA:

  • Elon Musk, Consejero Delegado de SpaceX, Tesla y Twitter
  • Steve Wozniak, Cofundador de Apple
  • Emad Mostaque, CEO de Stability AI
  • Jaan Tallinn, Cofundador de Skype, Centro para el Estudio del Riesgo Existencial, Instituto del Futuro de la Vida
  • Evan Sharp, Cofundador, Pinterest
  • Craig Peters, CEO, Getty Images
  • Mark Nitzberg, Director Ejecutivo del Center for Human-Compatible AI, UC Berkeley
  • Gary Marcus, Universidad de Nueva York, Investigador de IA, Profesor Emérito
  • Zachary Kenton, DeepMind, Investigador Científico Senior
  • Ramana Kumar, DeepMind, Científico investigador
  • Michael Osborne, Universidad de Oxford, Profesor de Aprendizaje Automático
  • Adam Smith, Universidad de Boston, Profesor de Informática, Premio Gödel, Premio Kanellakis

En total, se recogieron más de 33.000 firmas.

Otras figuras notables, como Sam Altman (CEO, OpenAI), Geoffrey Hinton (ganador del premio Turing), Dario Amodei (CEO, Anthropic) y Bill Gates, así como más de 350 ejecutivos e investigadores de IA firmaron esta declaración:

Mitigar el riesgo de extinción de la inteligencia artificial debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.

Los peligros de la inteligencia artificial

En 2018, un coche Uber autoconducido atropelló y mató a un peatón.

En 2022, unos científicos reconfiguraron un sistema de IA diseñado originalmente para crear moléculas no tóxicas y curativas para producir agentes de guerra química. Al cambiar la configuración del sistema para recompensar la toxicidad en lugar de penalizarla, fueron capaces de generar rápidamente 40.000 moléculas potenciales para la guerra química en solo seis horas.

En 2023, los investigadores demostraron cómo GPT-4 podía manipular a un trabajador de TaskRabbit para que completara la verificación Captcha. Más recientemente, se informó de un trágico incidente en el que una persona se quitó la vida tras una inquietante conversación con un chatbot.

GPT-4 pasa la verificación Captcha

El uso de sistemas de IA, independientemente de su finalidad, puede acarrear consecuencias negativas, como:

  • Pérdida de empleo provocada por la automatización
  • Deepfakes y desinformación
  • Violaciones de la privacidad
  • Regulación legal poco clara
  • Sesgo algorítmico causado por datos erróneos
  • Crisis financieras
  • Ciberdelitos
  • Automatización de las armas
  • Superinteligencia incontrolable

Los sistemas de inteligencia artificial son cada vez más potentes y desconocemos sus limitaciones. Estos sistemas podrían utilizarse con fines malintencionados. Examinemos más de cerca los distintos riesgos.

Pérdida de empleos por la automatización de la IA

Según una investigación realizada por Goldman Sachs, la inteligencia artificial puede afectar significativamente a los mercados de trabajo de todo el mundo. Analizando bases de datos que detallan el contenido de las tareas de más de 900 ocupaciones en EE.UU. y 2.000 ocupaciones en la base de datos europea ESCO, los economistas de Goldman Sachs estiman que aproximadamente dos tercios de las ocupaciones están expuestas a cierto grado de automatización por la IA.

Porcentaje de ocupaciones y porcentaje de carga de trabajo expuestos a la automatización por IA

El eje vertical muestra la parte de la carga de trabajo ocupacional expuesta a la automatización por IA. El eje horizontal muestra el porcentaje de ocupaciones.

Los cambios en los flujos de trabajo provocados por estos avances podrían llegar a automatizar el equivalente a 300 millones de empleos a tiempo completo. Sin embargo, no todo este trabajo automatizado provocará despidos. Muchos puestos de trabajo e industrias son sólo parcialmente susceptibles de automatización, lo que significa que es más probable que sean complementados por la IA en lugar de sustituidos por completo.

Seo.ai lleva esta predicción aún más lejos, estimando que alrededor de 800 millones de puestos de trabajo en todo el mundo podrían ser sustituidos por la inteligencia artificial en 2030. Para prepararse para este cambio, se espera que en los próximos tres años más de 120 millones de trabajadores se reciclen.

Si quieres saber qué profesiones son más susceptibles de ser automatizadas y cuáles están menos amenazadas por la automatización, consulta nuestro artículo sobre el tema.

Información errónea

Incluso los grandes modelos lingüísticos más avanzados son susceptibles de generar información incorrecta o sin sentido. Estos errores (alucinaciones) suelen ser el resultado de la confianza del modelo en los patrones estadísticos de los datos con los que ha sido entrenado, en lugar de una verdadera comprensión o razonamiento.

En otras palabras, los chatbots a veces pueden inventarse hechos. Esto quedó claro en 2023, cuando un abogado de Nueva York se metió en un buen lío por utilizar ChatGPT para llevar a cabo una investigación legal en un caso de lesiones personales. Elaboró un informe de 10 páginas en el que hacía referencia a varias decisiones judiciales anteriores, y se demostró que todas ellas habían sido inventadas por el chatbot. Como resultado, el abogado y un colega fueron sancionados por un juez federal y multados con 5.000 dólares cada uno.

En 2024, otro abogado de Nueva York fue sancionado por citar un caso inexistente generado por inteligencia artificial.

La inteligencia artificial alucina

Otro ejemplo es Stack Overflow, un sitio web de preguntas y respuestas utilizado principalmente por programadores y desarrolladores para hacer preguntas técnicas, buscar ayuda con problemas de codificación y compartir conocimientos dentro de la comunidad de programadores.

El sitio tuvo que prohibir todo uso de IA generativa, porque la tasa media de obtención de respuestas correctas de varios chatbots era demasiado baja, aunque las respuestas solían parecer convincentes.

Manipulación social

Hoy en día, las plataformas de las redes sociales están inundadas de tanto contenido que puede resultar abrumador seguirle el ritmo a todo. Ahí es donde entra en juego la curación algorítmica. Básicamente, ayuda a cribar todo el ruido y a presentar a los usuarios los contenidos que tienen más probabilidades de interesarles en función de su comportamiento anterior. Aunque esto puede ser útil para gestionar el flujo interminable de información, también significa que la plataforma tiene mucho control sobre lo que ven los usuarios y con lo que interactúan.

Sin embargo, cambiar lo que aparece en el feed de noticias de alguien puede influir en su estado de ánimo y en su forma de ver el mundo en general. En enero de 2012, los científicos de datos de Facebook demostraron cómo las decisiones sobre la curaduría del News Feed podían cambiar el nivel de felicidad de los usuarios. Los sucesos de enero de 2021 en el Capitolio de Estados Unidos pusieron aún más de relieve cómo el consumo de medios sociales de una persona puede desempeñar un papel en la radicalización.

Además, dado que el material sensacionalista tiende a mantener enganchados a los usuarios durante periodos de tiempo más largos, los algoritmos pueden dirigir inadvertidamente a los usuarios hacia contenidos provocativos y dañinos con el fin de aumentar el compromiso. Incluso sugerir contenidos basados en los intereses de un usuario puede ser problemático, ya que puede afianzar aún más sus creencias dentro de una "burbuja de filtros" en lugar de exponerlos a diversas perspectivas. En última instancia, esto puede aumentar la polarización entre los usuarios.

La gente en sus burbujas

Cuando cedemos nuestro poder de decisión a las plataformas, básicamente les estamos dando el control sobre lo que vemos. Las redes sociales, con sus avanzados algoritmos, destacan en el marketing dirigido al comprender nuestras preferencias y pensamientos. Recientes investigaciones están analizando el papel de Cambridge Analytica y otras empresas similares en el uso de datos de 50 millones de usuarios de Facebook para influir en acontecimientos políticos importantes, como las elecciones presidenciales estadounidenses de 2016 y el referéndum sobre el Brexit en el Reino Unido. Si se demuestra que estas acusaciones son ciertas, se pone de relieve el potencial de la IA para manipular a la sociedad. Un ejemplo más reciente es el de Ferdinand Marcos, Jr. utilizando un ejército de trolls de TikTok para influir en los votantes más jóvenes en las elecciones presidenciales filipinas de 2022. Al aprovechar los datos personales y los algoritmos, la IA puede dirigirse eficazmente a las personas con propaganda específica, ya esté basada en hechos o en ficción.

Deepfakes

Los deepfakes son vídeos o imágenes alterados digitalmente que muestran de forma realista a una persona diciendo o haciendo algo que en realidad nunca dijo o hizo. Esta tecnología utiliza algoritmos de aprendizaje profundo para manipular secuencias de vídeo y audio existentes con el fin de crear contenidos falsos convincentes.

"Nadie sabe lo que es real y lo que no", afirma el futurólogo Martin Ford. "Así que realmente nos lleva a una situación en la que literalmente no puedes creer en tus propios ojos y oídos; no puedes confiar en lo que, históricamente, hemos considerado la mejor prueba posible.... Eso va a ser un problema enorme".

Una de las principales razones por las que los deepfakes se consideran peligrosos es su potencial para ser utilizados con fines maliciosos. Por ejemplo, los deepfakes podrían utilizarse para crear pruebas de vídeo falsas en casos judiciales, inculpar a personas de delitos que no han cometido o incluso suplantar la identidad de una figura política para difundir información falsa. Al manipular los medios de comunicación de esta manera, los deepfakes tienen el poder de alterar la confianza en las fuentes tradicionales de información y sembrar la confusión y la discordia en la sociedad.

Según DeepMedia, una empresa que trabaja en herramientas para detectar medios sintéticos, en 2023 se publicaron 500.000 deepfakes en las redes sociales de todo el mundo. Esto supone 3 veces más deepfakes de vídeo y 8 veces más deepfakes de voz que en 2022.

Algunos ejemplos recientes de uso malintencionado de deepfakes incluyen la creación de pornografía falsa de famosos, en la que se insertan digitalmente rostros de famosos en vídeos pornográficos sin su consentimiento. Además, se han dado casos de vídeos deepfake utilizados para manipular las cotizaciones bursátiles, difamar a personas o difundir propaganda política. Estos ejemplos ponen de manifiesto la posibilidad de que los deepfakes se utilicen con fines perjudiciales y engañosos.

Ciberdelincuencia

La ciberdelincuencia engloba una amplia variedad de actividades delictivas que utilizan dispositivos y redes digitales. Estos delitos implican el uso de la tecnología para cometer fraudes, robos de identidad, violaciones de datos, virus informáticos, estafas y otros actos maliciosos. Los ciberdelincuentes aprovechan los puntos débiles de los sistemas y redes informáticos para obtener acceso no autorizado, robar información confidencial, interrumpir servicios y causar daños a particulares, organizaciones y gobiernos.

Los ciberdelincuentes utilizan cada vez más herramientas de IA de fácil acceso, como ChatGPT, Dall-E y Midjourney, para realizar ataques automatizados de phishing, suplantación de identidad, ingeniería social y falsos chatbots de atención al cliente.

Según el informe SlashNext State of Phishing Report 2023, se ha producido un aumento del 1.265% en los correos electrónicos maliciosos de phishing, atribuido en gran medida al uso de herramientas de IA para ataques dirigidos.

Los ataques de suplantación de identidad son cada vez más comunes. Los estafadores están utilizando ChatGPT y otras herramientas para hacerse pasar por personas y organizaciones reales, dedicándose al robo de identidad y al fraude. De forma similar a los ataques de phishing, utilizan chatbots para enviar mensajes de voz haciéndose pasar por un amigo, colega o familiar de confianza con el fin de obtener información personal o acceso a cuentas. En un caso notable de marzo de 2019, el jefe de una filial británica de una compañía energética alemana fue víctima de un estafador que emuló la voz del CEO, lo que llevó a una transferencia de casi 200,000 libras (243,000 dólares) a una cuenta bancaria húngara. Posteriormente, los fondos se trasladaron a México y se distribuyeron por varios lugares. Los investigadores no han identificado a ningún sospechoso.

Ciberdelincuencia y castigo

En 2023, el Centro de Denuncias de Delitos en Internet (IC3) recibió un número sin precedentes de denuncias del público estadounidense: se presentaron un total de 880.418 denuncias, con pérdidas potenciales superiores a 12.500 millones de dólares. Esto supone un aumento de casi el 10% en el número de denuncias recibidas y un incremento del 22% en las pérdidas con respecto a 2022. A pesar de estas asombrosas cifras, es importante señalar que probablemente subestiman el verdadero alcance de la ciberdelincuencia en 2023. Por ejemplo, cuando el FBI desmanteló recientemente el grupo de ransomware Hive, se descubrió que solo alrededor del 20% de las víctimas de Hive habían denunciado el delito a las fuerzas de seguridad.

Invasión de la intimidad

Un ejemplo destacado de vigilancia social es el uso que hace China de la tecnología de reconocimiento facial en oficinas, escuelas y otros lugares. Esta tecnología no sólo permite rastrear los movimientos de las personas, sino que también permite potencialmente al gobierno recopilar gran cantidad de datos para vigilar sus acciones, actividades, relaciones y creencias ideológicas.

Ahora se puede vigilar a las personas tanto en línea como en su vida cotidiana. Cada ciudadano es evaluado en función de sus comportamientos, como cruzar la calle imprudentemente, fumar en zonas de no fumadores o el tiempo que pasa jugando a videojuegos. Imagina que cada acción afecta a tu puntuación personal dentro del sistema de crédito social.

Cuando el Gran Hermano te vigila y luego toma decisiones basadas en esa información, no sólo es una invasión de la privacidad, sino que puede convertirse rápidamente en opresión social.

Crisis financieras

En el mundo financiero actual, el uso de algoritmos de aprendizaje automático está muy extendido, y los fondos de cobertura y las empresas de inversión dependen en gran medida de estos modelos para analizar acciones y activos. Estos algoritmos se alimentan constantemente con enormes cantidades de datos tradicionales y alternativos para tomar decisiones de negociación. Sin embargo, cada vez preocupa más la posibilidad de que la negociación algorítmica desencadene la próxima gran crisis financiera.

Flash Crash de 2010. 600.000 millones de dólares evaporados en 20 minutos

Flash Crash de 2010. 600.000 millones de dólares evaporados en 20 minutos

Un ejemplo notable de los peligros de los algoritmos defectuosos es el Flash Crash de 2010, en el que el mercado bursátil se desplomó repentinamente casi 1.000 puntos en cuestión de minutos antes de repuntar rápidamente. Aunque los índices bursátiles consiguieron recuperarse parcialmente en el mismo día, el Flash Crash borró casi un billón de dólares en valor de mercado. Esta caída repentina y drástica de los precios se atribuyó en gran medida a la reacción impredecible de los algoritmos de negociación automática a las condiciones del mercado. Otro ejemplo fue el Flash Crash de Knight Capital en 2012, en el que un algoritmo que no funcionaba correctamente hizo que la empresa perdiera 440 millones de dólares en tan solo 45 minutos, lo que acabó provocando su desaparición.

Estas caídas sirven como recordatorios aleccionadores de los riesgos potenciales que plantea la negociación algorítmica en los mercados financieros. Cuando los algoritmos no se diseñan, prueban o supervisan adecuadamente, pueden tener consecuencias catastróficas. Es crucial que las instituciones financieras examinen a fondo sus algoritmos y se aseguren de que se aplican prácticas adecuadas de gestión de riesgos para evitar que se produzcan desastres similares en el futuro.

Robots asesinos

Las armas autónomas dotadas de inteligencia artificial (IA) son desde hace tiempo tema de debate y preocupación entre gobiernos, militares y defensores de los derechos humanos. Estos sistemas, también conocidos como "robots asesinos" o "armas autónomas letales", tienen la capacidad de seleccionar y atacar objetivos de forma independiente, sin intervención humana. Esto plantea importantes problemas éticos, jurídicos y de seguridad, ya que estas armas pueden tomar decisiones de vida o muerte sin supervisión humana.

El desarrollo de armas autónomas se ha acelerado en los últimos años, a medida que la tecnología de IA se ha vuelto más avanzada y generalizada. Estas armas pueden ir desde drones no tripulados hasta sistemas terrestres capaces de identificar y atacar objetivos de forma autónoma. Los defensores de las armas autónomas argumentan que pueden reducir las bajas humanas en zonas de conflicto y proporcionar operaciones militares más precisas y eficientes. Sin embargo, los críticos sostienen que estos sistemas plantean graves cuestiones éticas y pueden tener consecuencias imprevistas, como la escalada de los conflictos y las víctimas civiles.

El peligro que plantean las armas autónomas impulsadas por IA es muy real. Estos sistemas pueden ser pirateados o funcionar mal, lo que puede tener consecuencias imprevistas y provocar la pérdida de control. Además, la falta de supervisión humana en la toma de decisiones plantea problemas de responsabilidad y la posibilidad de que se produzcan violaciones del derecho internacional humanitario.

Robots asesinos en la ciencia ficción

En 2020, más de 30 países pidieron la prohibición de las armas autónomas letales, citando la preocupación por la posibilidad de que las máquinas tomen decisiones de vida o muerte. A pesar de estas preocupaciones, el desarrollo y despliegue de armas autónomas impulsadas por IA sigue avanzando. Se sabe que países como Estados Unidos, Rusia, China e Israel están invirtiendo mucho en estas tecnologías. En Estados Unidos, el Departamento de Defensa ha estado desarrollando sistemas de armas autónomas, incluidos drones semiautónomos y vehículos terrestres no tripulados.

Superinteligencia incontrolable

La inteligencia artificial supera al cerebro humano en varios aspectos, como la velocidad de cálculo, la velocidad de comunicación interna, la escalabilidad, la capacidad de memoria, la fiabilidad, la duplicabilidad, la editabilidad, la compartición de memoria y la capacidad de aprendizaje:

  • La IA funciona potencialmente a varios GHz, frente al límite de 200 Hz de las neuronas biológicas.
  • Los axones transmiten señales a 120 m/s, mientras que los ordenadores lo hacen a la velocidad de la electricidad o la luz.
  • La IA puede ampliarse fácilmente añadiendo más hardware, a diferencia de la inteligencia humana, limitada por el tamaño del cerebro y la eficacia de la comunicación social.
  • La memoria de trabajo de los humanos es limitada en comparación con la capacidad de memoria expansiva de la IA.
  • La fiabilidad de los transistores de la IA supera a la de las neuronas biológicas, lo que permite una mayor precisión y menos redundancia.
  • Los modelos de IA pueden duplicarse y modificarse fácilmente, y pueden aprender de otras experiencias de IA con más eficacia que los humanos.

Algún día, la IA podrá alcanzar un nivel de inteligencia que supere con creces al de los humanos, dando lugar a lo que se conoce como una explosión de inteligencia.

Superinteligencia y extinción humana

Esta idea de superación recursiva, en la que la IA se mejora a sí misma a un ritmo exponencial, ha suscitado preocupación por las posibles consecuencias de crear una entidad superinteligente. Imaginemos un escenario en el que la IA alcanzara un nivel de inteligencia que le permitiera pensar más que los humanos y superarlos en todos los aspectos imaginables. Esta superinteligencia podría tener el poder de tomar decisiones con un gran impacto en nuestra sociedad y nuestro modo de vida. Al igual que los humanos tenemos en nuestras manos el destino de muchas especies, el destino de la humanidad podría estar algún día en manos de una IA superinteligente.

Dependencia excesiva de la IA y responsabilidad jurídica

Depender en exceso de la tecnología de IA podría provocar una disminución de la influencia y el funcionamiento humanos en determinados ámbitos de la sociedad. Por ejemplo, el uso de la IA en la atención sanitaria puede reducir la empatía y el razonamiento humanos. Además, la utilización de IA generativa para actividades creativas podría ahogar la creatividad humana y la expresión emocional. Una interacción excesiva con los sistemas de IA también podría provocar una disminución de la comunicación entre iguales y de las habilidades sociales. Aunque la IA puede ser beneficiosa para automatizar tareas, preocupa su impacto en la inteligencia humana en general, en las capacidades y en el sentido de comunidad.

Además, existen peligros potenciales que podrían provocar daños físicos a los seres humanos. Por ejemplo, si las empresas confían únicamente en las predicciones de la IA para los programas de mantenimiento sin otra verificación, podrían producirse averías en la maquinaria que perjudicaran a los trabajadores. En sanidad, los modelos de IA podrían dar lugar a diagnósticos erróneos.

Además de los daños físicos, la IA puede plantear riesgos no físicos para los seres humanos si no se regula adecuadamente. Esto incluye problemas de seguridad digital como la difamación o la calumnia, seguridad financiera como el uso indebido de la IA en recomendaciones financieras o comprobaciones de crédito, y problemas de equidad relacionados con los sesgos de la IA que conducen a rechazos o aceptaciones injustos en diversos programas.

Y, cuando algo sale mal, ¿quién debe responder? ¿Es la propia IA, el desarrollador que la creó, la empresa que la puso en funcionamiento, o es el operador si intervino un humano?

* * *

En conclusión, aunque la inteligencia artificial conlleva muchos riesgos y amenazas, también tiene el potencial de beneficiar enormemente a la sociedad y mejorar nuestras vidas. Es importante reconocer que lo bueno suele superar a lo malo en lo que respecta a la tecnología de IA. En nuestro próximo artículo, analizaremos estrategias para mitigar los riesgos asociados a la IA, asegurándonos de que podemos aprovechar plenamente su potencial para un cambio positivo.