mayo 11, 2024
El CEO de Tesla Inc, Elon Musk, asiste a la Conferencia Mundial de Inteligencia Artificial (WAIC) en Shanghai
El CEO de Tesla Inc, Elon Musk, asiste a la Conferencia Mundial de Inteligencia Artificial (WAIC) en Shanghái, China, el 29 de agosto de 2019.
Reuters

Cuatro expertos en inteligencia artificial expresaron su preocupación después de que su trabajo fuera citado en una carta abierta, firmada conjuntamente por Elon Musk, que exigía una pausa urgente en la investigación.

La carta, fechada el 22 de marzo y con más de 1800 firmas hasta el viernes, pedía un interruptor automático de seis meses en el desarrollo de sistemas «más potentes» que el nuevo GPT-4 de OpenAI respaldado por Microsoft, que puede mantener una conversación similar a la humana. , componer canciones y resumir documentos extensos.

Desde que se lanzó el año pasado el predecesor de GPT-4, ChatGPT, las empresas rivales se han apresurado a lanzar productos similares.

La carta abierta dice que los sistemas de IA con «inteligencia humana-competitiva» plantean profundos riesgos para la humanidad, citando 12 investigaciones de expertos, incluidos académicos universitarios, así como empleados actuales y anteriores de OpenAI, Google y su subsidiaria DeepMind.

Desde entonces, grupos de la sociedad civil en los EE. UU. y la UE han presionado a los legisladores para que controlen la investigación de OpenAI. OpenAI no respondió de inmediato a las solicitudes de comentarios.

Los críticos han acusado al Future of Life Institute (FLI), la organización detrás de la carta que está financiada principalmente por la Fundación Musk, de priorizar escenarios apocalípticos imaginarios sobre preocupaciones más inmediatas sobre la IA, como la programación de sesgos racistas o sexistas en las máquinas.

Entre las investigaciones citadas se encontraba «Sobre los peligros de los loros estocásticos», un conocido artículo escrito en coautoría por Margaret Mitchell, quien anteriormente supervisó la investigación ética de IA en Google.

Mitchell, ahora jefe científico ético de la firma de inteligencia artificial Hugging Face, criticó la carta y dijo a Reuters que no estaba claro qué contaba como «más poderoso que GPT4».

«Al tratar muchas ideas cuestionables como un hecho, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los partidarios de FLI», dijo. «Ignorar los daños activos en este momento es un privilegio que algunos de nosotros no tenemos».

Sus coautores Timnit Gebru y Emily M. Bender criticaron la carta en Twitter, y esta última calificó algunas de sus afirmaciones como «desquiciadas».

El presidente de FLI, Max Tegmark, dijo a Reuters que la campaña no era un intento de obstaculizar la ventaja corporativa de OpenAI.

«Es bastante divertido. He visto a personas decir: ‘Elon Musk está tratando de frenar la competencia'», dijo, y agregó que Musk no participó en la redacción de la carta. «Esto no se trata de una empresa».

RIESGOS AHORA

Shiri Dori-Hacohen, profesora asistente de la Universidad de Connecticut, también discrepó con la mención de su trabajo en la carta. El año pasado, fue coautora de un artículo de investigación que argumentaba que el uso generalizado de la IA ya planteaba riesgos graves.

Su investigación argumentó que el uso actual de los sistemas de IA podría influir en la toma de decisiones en relación con el cambio climático, la guerra nuclear y otras amenazas existenciales.

Ella le dijo a Reuters: «La IA no necesita alcanzar una inteligencia de nivel humano para exacerbar esos riesgos».

«Hay riesgos no existenciales que son muy, muy importantes, pero que no reciben el mismo tipo de atención al nivel de Hollywood».

Cuando se le pidió que comentara sobre las críticas, Tegmark de FLI dijo que los riesgos de la IA tanto a corto como a largo plazo deben tomarse en serio.

“Si citamos a alguien, solo significa que afirmamos que está respaldando esa oración. No significa que esté respaldando la carta, o que respaldamos todo lo que piensa”, dijo a Reuters.

Dan Hendrycks, director del Centro para la Seguridad de la IA con sede en California, quien también fue citado en la carta, defendió su contenido y le dijo a Reuters que era sensato considerar los eventos del cisne negro, aquellos que parecen poco probables, pero que tendrían consecuencias devastadoras.

La carta abierta también advirtió que las herramientas generativas de inteligencia artificial podrían usarse para inundar Internet con «propaganda y falsedad».

Dori-Hacohen dijo que fue «bastante enriquecedor» que Musk lo haya firmado, citando un aumento informado de información errónea en Twitter luego de su adquisición de la plataforma, documentado por el grupo de la sociedad civil Common Cause y otros.

Twitter pronto lanzará una nueva estructura de tarifas para acceder a sus datos de investigación, lo que podría dificultar la investigación sobre el tema.

“Eso ha impactado directamente el trabajo de mi laboratorio, y el realizado por otros que estudian la información errónea y la desinformación”, dijo Dori-Hacohen. «Estamos operando con una mano atada a la espalda».

Musk y Twitter no respondieron de inmediato a las solicitudes de comentarios.

Conferencia de petróleo y gas ONS 2022
El fundador de Tesla, Elon Musk, asiste a Offshore Northern Seas 2022 en Stavanger, Noruega, el 29 de agosto de 2022. NTB/Carina Johansen vía REUTERS
Reuters

Continuar leyendo este Titular: Los expertos en inteligencia artificial rechazan la campaña respaldada por Musk citando su investigación