Elon Musk y cientos de expertos mundiales firmaron un llamado a hacer una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado este mes, al advertir de «grandes riesgos para la humanidad».
La misiva la firman, además de Musk, el cofundador de Apple, Steve Wozniak, y el director ejecutivo de la firma Stability AI, Emad Mostaque, además de investigadores de la firma DeepMind.
Según un reporte de la agencia alemana DW, «en los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable», afirman.
«¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (…) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos», aseguraron.
El despegue de la IA
Por primera vez, una herramienta de IA tan sofisticada está disponible en línea de forma gratuita con ChatGPT, lo que ha originado un debate sobre las implicaciones de la IA Generativa para la creatividad humana.
En unos pocos meses, ChatGPT se ha convertido en el representante más destacado de una nueva generación de los llamados sistemas de «IA Generativa». También hay otros programas, como LaMDA, DALL-E o Stable Diffusion, que crean textos, códigos de computadora, imágenes o incluso material de video con resultados tan convincentes que, a menudo, es imposible reconocer si están hechos por personas.
Esta tecnología, según los expertos, revolucionará la vida laboral o la búsqueda de información en línea. Al mismo tiempo, advierten que podría dejar sin trabajo a millones de personas o ser utilizada para desinformar. Esto ha generado un debate sobre las normas necesarias para la IA.
Con información de DW / Foto: AFP
