IA: "Estamos un poco asustados", advirtió el creador del ChatGPT

Sam Altman, CEO de OpenAI, alertó que la humanidad debe estar preparada para las consecuencias negativas de la IA: desinformación y ciberataques, son las principales preocupaciones.

IA ChatGPT
ChatGPT, la potente herramienta de Inteligencia Artificial que revoluciona el mundo actualmente. Foto: Pixa.

La inteligencia artificial (IA) vuelve a estar mundialmente en el centro de la escena, con el reciente desembarco del modelo de lenguaje GPT-4, la última versión del ChatGPT. La nueva herramienta deslumbra por su capacidad, pero también plantea grandes dilemas, ante los cuales se enfrenta también su propio creador, Sam Altman, actual CEO de la empresa OpenAI.

En una reciente entrevista con el medio estadounidense ABC News, Altman reconoció que existe un gran potencial que está por desarrollarse, pero que esta tecnología podría traer consigo peligros reales para la humanidad.

Debemos tener cuidado y al mismo tiempo entender que no sirve tenerlo todo en un laboratorio. Es un producto que debemos difundir y que haga contacto con la realidad y tener errores mientras los riesgos son bajos. Habiendo dicho eso, creo que la gente debería estar feliz de que estemos algo asustados de esto. Si pudiera decir que no me asusta, no deberías confiar en mi (...)”, afirmó.

Desinformación y ciberataques, las principales preocupaciones de Altman

El CEO de OpenAI ya había expresado anteriormente sus temores en una publicación realizada en su cuenta personal de Twitter. En esta oportunidad, indicó que su principal preocupación es que la inteligencia artificial como ChatGPT pueda ser utilizada para generar contenido para desinformar a las personas.

"Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, podrían usarse para ataques cibernéticos ofensivos", declaró en la entrevista.

Sam Altman CEO empresa OpenAI
Sam Altman, actual CEO de la empresa OpenAI.

Por otro lado, Altman consideró que la capacidad de estas herramientas para escribir códigos en diversos lenguajes de programación podría generar riesgos de ciberseguridad. “Ahora que han mejorado su capacidad para programación, podrían utilizarse para realizar ciberataques más agresivos”, afirmó.

Pese a todo, Altman reflexionó: “Esta es una herramienta que está en gran medida bajo el control humano”. En este sentido, marcó que el GPT-4 "espera a que alguien le dé una entrada", y lo preocupante es, en realidad, es quién tenga el control de esas entradas.

La humanidad necesita tiempo para adaptarse a la Inteligencia Artificial

Altman aseguró que aun cuando todos los cambios que se puedan generar gracias al avance en la tecnología de inteligencia artificial pueden considerarse positivos, la humanidad necesita tiempo para adaptarse a ellos. Insistió en que OpenAI también deberá realizar este proceso de adaptación para corregir el uso inadecuado o las consecuencias dañinas que pueda tener este tipo de sistemas.

“Seguro que haremos correcciones al mismo tiempo que ocurren estos hechos negativos. Ahora que los riesgos son bajos, estamos aprendiendo lo más que podemos y estableciendo una constante retroalimentación para mejorar el sistema para evitar los escenarios más peligrosos”, aseguró el CEO de la compañía