Los desarrolladores de herramientas tech que aplican Inteligencia Artificial (IA) decidieron que 2023 sea el año para poner este incipiente desarrollo en boca de todos. Su principal nave insignia: ChatGPT, el bot que resuelve problemas y plantea una nueva forma de comunicación, tiene “un poco asustados”, al creador y su equipo de trabajo.
Sam Altman, actual CEO de la empresa OpenAI, se refirió a la evolución que tomó ChatGPT desde su lanzamiento y las distintas polémicas que giraron a su alrededor: “Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, podrían usarse para ataques cibernéticos ofensivos”, replicó Ámbito.
“Tenemos que tener cuidado aquí. Creo que la gente debería estar feliz de que estemos un poco asustados por esto”, agregó Altman en otro llamativo pasaje de sus declaraciones.
Además de la desinformación, ChatGPT puede ser funcional a la propagación de deepfakes y malware: Open IA afirmó haber detectado ciberdelincuentes distribuyendo versiones de la Interfaz de Programación de Aplicaciones (API) de uno de los modelos de la empresa, que permite crear ‘malware’ y correos electrónicos de ‘phishing’. El objetivo de esta distribución es saltear las restricciones de la compañía para evitar el abuso de la herramienta de inteligencia artificial ChatGPT.
Otras versiones de IA lograron replicar casi a la perfección la voz de cualquier persona, la que luego puede ser programada para que diga aquello que el usuario le demande. Usuarios de Tik Tok crearon diferentes contenidos en donde hacen debatir al presidente de Estados Unidos, Joe Biden, y los exmandatarios Donald Trump y Barak Obama sobre las bondades e inconvenientes de comer en Mc Donalds. ¿Qué usos podrían darle ciberdelincuentes a esta aplicación para estafas telefónicas o como vía para intervenir en procesos electorales a través de la “filtración” de conversaciones de audio apócrifas?
Altman aseguró que la herramienta se encuentra “en gran medida bajo el control de los seres humanos”.
Para el CEO, lo preocupante se centra en quién tendrá acceso a esta tecnología cuando se haga masiva, ya que dependerá de sus valores éticos —individuos, grupos y empresas— lo que pueda hacer para el bien común o no: “Habrá otras personas que no pongan algunos de los límites de seguridad que ponemos nosotros. Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo”. En este contexto, apuntó a las empresas que abogan por un enfoque libertario respecto a la inteligencia artificial, como Microsoft y otras empresas.
ChatGPT-4: que ofrece la nueva versión
Si bien hasta ahora el chatbot presentaba un margen de error medio, la cuarta versión sube el número de aciertos: OpenAI lanzó este martes Chat GPT4, una nueva versión del modelo de comunicación a través de inteligencia artificial, la cual responde y resuelve problemas a los usuarios de forma rápida y coherente.
Según la empresa, “GPT-4 es más creativo y colaborativo que nunca. Puede generar, editar e iterar con los usuarios en tareas de escritura técnica y creativa, como componer canciones, escribir guiones o aprender el estilo de escritura de un usuario”.