OpenAI ha publicado la llamada GPT-4o System Card, un informe que detalla los resultados de su investigación sobre la seguridad de su último modelo de inteligencia artificial generativa. Este informe revela preocupantes conclusiones sobre el potencial impacto de GPT-4o en diversos ámbitos, destacando especialmente los riesgos asociados con su capacidad de persuasión y su interacción con los usuarios
Riesgos
El equipo de ingenieros de OpenAI evaluó los posibles riesgos de GPT-4o en varias áreas, incluyendo la ciberseguridad, la creación de amenazas biológicas y su autonomía. En la mayoría de estos campos, el riesgo fue catalogado como "bajo". Sin embargo, en el ámbito de la persuasión, el riesgo fue calificado como "medio".
Durante las pruebas, se realizaron evaluaciones tanto con la voz sintetizada del modelo como con sus textos. Aunque la voz no presentó mayores peligros, los textos generados por GPT-4o sí cruzaron "marginalmente" la barrera hacia el riesgo medio. En particular, se observó que en temas políticos, estos textos podían ser más persuasivos que los creados por humanos, lo que plantea serias inquietudes sobre la capacidad de este modelo para influir en opiniones y decisiones.
Interacción humana con IA
Otro aspecto relevante del informe es la evaluación de la interfaz antropomórfica de GPT-4o, que imita la voz humana con una sorprendente precisión, incluyendo pausas, entonaciones y emociones. Esta capacidad, aunque impresionante, no está exenta de riesgos. Hace algunos meses, la versión original de la voz fue retirada debido a su inquietante similitud con la de la actriz Scarlett Johansson en la película 'Her'. La nueva versión, aunque modificada, sigue generando preocupación.
El informe de OpenAI advierte que la "calidad excepcional" de la voz sintetizada puede facilitar interacciones más humanas con el modelo, lo que podría llevar a consecuencias no deseadas. Por un lado, podría ser una herramienta útil para personas que se sienten solas, pero también podría fomentar el aislamiento social y crear una dependencia emocional hacia la máquina. La compañía reconoce que la socialización con una IA podría modificar las normas sociales, como la deferencia y la interrupción durante las conversaciones, comportamientos que son aceptables en interacciones con una IA, pero no en relaciones humanas.
Preocupaciones crecientes
Aunque OpenAI ha dado un primer paso al identificar estos riesgos, expertos sugieren que aún queda mucho por evaluar en cuanto al impacto de estas tecnologías en nuestras relaciones sociales. Un análisis publicado por Google DeepMind en abril ya había abordado esta preocupación, destacando que la habilidad de un chatbot para comunicarse crea una "impresión de intimidad genuina", lo que puede dar lugar a enredos emocionales complejos. La plataforma Replika ha experimentado casos en los que usuarios desarrollaron sentimientos románticos hacia sus chatbots, un fenómeno que evidencia la necesidad de un mayor escrutinio y regulación en el desarrollo de estas tecnologías.