29 febrero, 2024

Extra! News

extranews.com.ar

Con la llegada de GPT-4, ¿por qué los expertos piden un alto en el avance de la inteligencia artificial?

¿Es momento de frenar los avances? El comunicado apocalíptico que emitieron Elon Musk y el cofundador de Apple, Steve Wozniak, entre otros expertos tecnológicos.

¿Las empresas tecnológicas van demasiado rápido en el lanzamiento de poderosas tecnologías de inteligencia artificial que algún día podrían aventajar a los humanos?

Esa es la conclusión de un reconocido grupo de científicos informáticos y otros personajes de la industria tecnológica como Elon Musk y el cofundador de Apple, Steve Wozniak, quienes piden una pausa de seis meses para considerar los riesgos.

Su petición publicada el miércoles es una respuesta al reciente lanzamiento GPT-4 de la empresa incipiente OpenAI, un sucesor más avanzado de su extensamente usado chatbot ChatGPT, que en parte impulsó una carrera entre los gigantes tecnológicos Microsoft y Google para lanzar aplicaciones similares.

¿Qué dicen los expertos sobre el GPT-4 y porqué piden un freno?

La carta advierte que los sistemas de inteligencia artificial con “inteligencia competitiva con humanos pueden plantear fuertes riesgos a la sociedad y la humanidad”, desde inundar el internet con desinformación y automatizar trabajos, hasta riesgos futuros más catastróficos sacados del ámbito de la ciencia ficción.

Dice que en “meses recientes laboratorios de inteligencia artificial están enfrascados en una carrera sin control para desarrollar y desplegar mentes digitales más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de manera fiable”.

¿Quién firmó el comunicado?

La petición fue organizada por el organismo no lucrativo Future of Life Institute (Instituto Futuro de la Vida) que dice que entre los firmantes confirmados está el galardonado con el premio Turing y pionero de la inteligencia artificial, Yoshua Bengio, y otros investigadores líder de la tecnología como Stuart Rusell y Gary Marcus.

Entre otros están Wozniak, el excandidato a la presidencia de Estado Unidos, Andrew Yang, y Rachel Bronson, presidenta de Bulletin of the Atomic Scientists, un grupo de defensa orientado a la ciencia conocido por sus advertencias contra una guerra nuclear que acabe con la humanidad.

Musk, quien dirige Tesla, Twitter y SpaceX, cofundó OpenAI y fue de sus primeros inversores, desde hace mucho tiempo expresa preocupación por los riesgos existenciales de la inteligencia artificial. Un firmante más sorpresivo es Emad Mostaque, director general de Stability AI, fabricante del generador de imágenes de inteligencia artificial Stable Diffusion que se asocia con Amazon y compite con el generador similar de OpenAI conocido como DALL-E.

¿Cuál es la respuesta desde Open AI y Google?

OpenAI, Microsoft y Google no respondieron de momento peticiones de comentario del miércoles, pero la carta ya cuenta con muchos escépticos.

“Una pausa es una buena idea, pero la carta es confusa y no se toma en serio los problemas regulatorios”, dice James Grimmelmann, profesor de ley digital y de la información en la Universidad Cornell. “También es muy hipócrita que Elon Musk firme dado lo mucho que Tesla ha luchado contra la responsabilidad por la inteligencia artificial defectuosa en sus autos autónomos”.

El mensaje de los científicos y expertos

El grupo de empresarios del sector tecnológico, expertos y políticos, entre ellos el controvertido empresario Elon Musk, solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los experimentos con inteligencia artificial (IA) muy potente porque consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.

“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, dice la carta abierta publicada por el organismo sin ánimo de lucro Future of Life Institute.

El director ejecutivo de Tesla, Elon Musk, el cofundador de Apple Steve Wozniak los investigadores estadounidenses Yoshua Bengio, Stuart Russel o los españoles Carles Sierra y Ramón López De Mantaras, son algunos de los firmantes de esta carta abierta en la que advierten de los supuestos peligros de la IA si no es acompañada de una gestión y una planificación adecuadas.

“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes”, asegura la misiva que sostiene, además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.

Incluso aseguran que “nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable” a estas mentes digitales.

Los firmantes enarbolan todos los miedos y peligros que en los últimos meses han resonado en foros, artículos y conversaciones cotidianas y lo hacen con un tono apocalíptico.

“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, se preguntan, antes de concluir: “Tales decisiones no deben delegarse en líderes tecnológicos no electos”.

En este sentido, piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA.

Asimismo, vuelven a subrayar que los sistemas potentes de Inteligencia Artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.

“Hacemos un llamamiento a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4″, dice el comunicado, que pide la intervención de los Gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones.

GPT, siglas en inglés del término transformadores preentrenados generativos, es un tipo de modelo de aprendizaje artificial que se utiliza para generar lenguaje similar al humano. El GPT-4 es mucho más avanzado que los modelos similares anteriores.

Open AI y GPT-4

El laboratorio OpenAI define el GPT-4 como su “último hito en el esfuerzo para ampliar el aprendizaje profundo”. Este nuevo sistema acepta la recepción tanto de textos e imágenes, y produce texto.

Sin embargo, OpenAI asegura que GPT-4 sigue siendo menos capaz que las personas en muchas situaciones reales aunque “muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales”.

Sistema de chat con inteligencia artificial.
Sistema de chat con inteligencia artificial.

La carta abierta propone que durante estos seis meses de pausa, los laboratorios de IA y los expertos independientes “desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados ??por expertos externos independientes”.

Finalmente, piden que la investigación y el desarrollo de la IA se reenfoque en hacer que “los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”.

Fuente La Voz