Mi visita a Cambridge durante el pasado mes de marzo para asistir a varios eventos de este importante ecositema mundial de innovación coincidió con el debate sobre la creciente popularidad de ChatGPT que abre perspectivas asombrosas para los negocios, la publicidad y las comunicaciones. Sus resultados en términos de capacidades de comunicación han protagonizado numerosas portadas en todo el mundo. El nuevo algoritmo de inteligencia artificial tiene varias ventajas sobre otros modelos de la competencia. En primer lugar, tiene en cuenta el contexto de la conversación y al mismo tiempo se entrena interactuando con el usuario (aprendizaje por refuerzo), por lo que puede resolver las llamadas «tareas de razonamiento”.
La segunda ventaja consiste en que ChatGPT puede solucionar problemas específicos, como volver a contar un texto técnico en un lenguaje sencillo, resolver un problema de matemáticas, escribir un ensayo o poema, o generar un código o una fórmula a partir de una descripción textual. Los más avispados usuarios de Tinder ya utilizan un bot de ChatGPT para ligar: la IA escribe un mensaje introductorio basado en los gustos de la persona de interés (analiza toda la información disponible en Internet) y se lo envía a las chicas/os que le atrae al usuario/a. Dicen que método funciona: se parece mucho a un mensaje humano de “la media naranja”.
Y esto tiene que ver también con su tercera ventaja que se basa en su desarrollo: los algoritmos de procesamiento de lenguaje natural. Se comunica casi como una persona gracias a los algoritmos autorregresivos textuales. La diferencia de otros modelos consiste en que no utiliza solo un modelo, sino una combinación de ellos mediante el aprendizaje reforzado a partir de la retroalimentación humana: aprendizaje con refuerzo de una persona. Afortunadamente todavía contar con la ayuda de un ser humano para IA se considera una ventaja para mejorar la capacidad de responder a preguntas, explicar conceptos, aceptar solicitudes de aclaración o «crear» algo nuevo. Y es la parte más interesante. Teniendo en cuenta la capacidad superior de la IA para procesar bloques de datos inmensos en tiempos récord y el razonamiento lógico para responder a las preguntas, ¿qué pasaría si utilizamos su API y arquitectura para crear, por ejemplo, nuevos medicamentos? Y con esta pregunta se abrió el melón en Cambridge. Veamos.
Por lo general, las redes neuronales de la inteligencia artificial ya se utilizan en el sector biomédico y biotecnológico. Por ejemplo, se usan para ayudar a los investigadores en las tareas de secuenciación del ADN, y también se utilizan para encontrar nuevas fórmulas, posibles combinaciones que en otras circunstancias tardarían años en ser hallados. Los complejos algoritmos están recorriendo bibliotecas electrónicas donde se almacenan datos de cientos de millones de compuestos químicos. El programa selecciona las moléculas que tienen más probabilidades de alcanzar el objetivo biológico marcado: suele ser una enzima o un receptor concreto que está involucrado en el mecanismo de aparición de enfermedades. Entre los parámetros de selección se encuentra una prueba de toxicidad, ya que el fármaco, por supuesto, no debería tener efectos secundarios muy nocivos para la salud humana.
¿Pero qué pasará si un buen día alguien marca el objetivo al revés? Un dato estremecedor de un reciente experimento: ¡la inteligencia artificial ha deducido la fórmula de más de 40.000 moléculas potencialmente mortales en solo 6 horas! El año pasado en la revista «The Verge» (17.03.2022) se publicaron los detalles de este espeluznante ensayo dirigido por el Dr. Fabio Urbina. Algunos compuestos realizados por la IA eran más tóxicos que incluso VX, prohibido como un arma química de destrucción masiva. Mucha información y bases de datos se encuentran en Internet con acceso abierto y gratuito. Cabe la posibilidad de que alguien que sabe programar y entiende suficiente sobre el aprendizaje automático podrá elaborar un algoritmo que pueda buscar sustancias letales de manera efectiva. Algunos científicos afirman que la falta de control efectivo sobre la utilización de la IA puede convertirse en un serio problema de seguridad. No por la propia tecnología, sino por los seres humanos que hacen uso de ella.
La inteligencia artificial es uno de los sectores más financiados en el mercado de capital de riesgo. La inversión en proyectos de IA en los últimos años representa hasta el 10 % de todo el capital de riesgo invertido. Y en el año pasado se invirtieron casi 70 000 millones de dólares en nuevas empresas de IA en todo el mundo. OpenAI ha recaudado más de mil millones de dólares en fondos de capital de riesgo con Microsoft como el mayor inversor, según datos de Crunchbase. Microsoft también proporciona poder de cómputo a OpenAI. Otros copropietarios de la empresa son Khosla Ventures, Sequoia Capital, Tiger Global, Y Combinator y Bedrock Capital. Microsoft está considerando aumentar su participación en OpenAI, creyendo que ChatGPT4 podría crear nuevas oportunidades para el negocio en la nube a medida que más empresas automatizan las operaciones utilizando la IA.
Pero Elon Musk y Steve Wozniak piden una pausa en el desarrollo de la IA. Los dos afirman que están presenciando una carrera incontrolable para desarrollar y desplegar inteligencias artificiales cada vez más poderosas. Según los autores de la carta abierta, existe la amenaza de perder el control y poner en peligro la civilización. Aunque muchos pesos pesados de Silicon Valley no están de acuerdo: Bill Gates, Sergey Brin, Larry Page y Eric Schmidt no ven fundamentos sólidos para tal preocupación. ¿Tal vez asumen que ya no es posible pausar esta carrera? La respuesta más probable no siempre es la más precisa. Sin duda, la IA es un gran progreso y una ayuda para el desarrollo de la ciencia, pero también es un arma de doble filo. La ingeniería social y las últimas tecnologías basadas en la IA en manos equivocadas pueden tener consecuencias nefastas para la sociedad. Debemos asumir que, junto con la multitud de efectos positivos que nos trae el vertiginoso desarrollo de la IA, serán inevitables accidentes (intencionados o fortuitos) en el campo de la utilización de estos sofisticados algoritmos.
Actualmente todos los desarrolladores más o menos serios codifican en sus programas la opción de «ignorar llamados a la violencia» para que el «levantamiento de las máquinas» termine antes de comenzar. Pero no es suficiente. Una fórmula segura para el desastre consiste en la enorme dependencia de las tecnologías que la sociedad ignora cómo funciona. Sin una labor divulgativa social ningunos controles o prohibiciones serán efectivos. Los intentos de disminuir la libertad humana no son nuevos y hasta ahora la sociedad supo dar una respuesta más o menos efectiva.
Como dijo el escritor David Wong, «la tecnología nueva no es buena o mala. Tiene que ver con cómo las personas eligen usarla».
Alejandro Mardjanian Petrosian
Columnista divulgador de la I+D+i. CEO de Universal Knowmad.