En una sala secreta y segura en algún lugar de Estados Unidos, existe un ordenador sin conexión a internet que guarda como si fuese una cámara acorazada el código fuente de ChatGPT. Y en esa sala, de ese punto perdido en territorio estadounidense están los abogados de uno de los diarios más importantes del planeta, el New York Times (NYT), con el propósito de determinar cómo OpenAI ha utilizado su contenido para entrenar el modelo de IA más famoso del mundo.
La investigación se está produciendo bajo enormes medidas de seguridad y se hace con motivo de la demanda que el grupo del NYT y otros medios y autores interpusieron contra OpenAI por utilizar millones de artículos sin pagar por ellos. Para acceder a esta sala, los abogados deben identificarse con documentos oficiales y no pueden entrar con teléfonos, memorias USB u otros dispositivos electrónicos. Se les proporciona un ordenador sin acceso a internet y con un programa de procesamiento de textos. Tras cada sesión, las notas tomadas pueden descargarse en otro equipo, y luego se borran del ordenador original.
La demanda, liderada por el bufete Susman Godfrey, busca establecer un precedente legal sobre cómo deben ser entrenados los modelos de inteligencia artificial. Según los abogados del NYT, OpenAI utilizó millones de artículos sin ofrecer compensación alguna, y ahora esos contenidos permiten al chatbot replicar artículos completos bajo petición del usuario.
Caso Napster
Las demandas presentadas contra OpenAI tiene el objetivo de conseguir parte del valor económico generado por los de Altman que actualmente se valora en 157.000 millones. Para esto, los abogados de Susman Godfrey (SG) han comparado este caso con el de Napster, la plataforma de intercambio de música de los 2000. La defensa del NYT, asegura que el caso de OpenAI es peor que el de Napster ya que los de Altman no son un proyecto universitario, sino una empresa respaldada por Microsoft que persigue generar beneficios.
Justin Nelson, abogado de SG, alega que OpenAI ha infringido los derechos de autor de dos formas: primero, al usar los artículos para entrenar sus modelos, y segundo, al permitir que ChatGPT reproduzca artículos completos del NYT a petición de los usuarios, sin que estos paguen una suscripción al medio de comunicación.
Por otro lado, los abogados de OpenAI afirman que el uso de estos materiales está protegido bajo la doctrina del "uso justo", argumentando que las reproducciones literales de los artículos del NYT son "muy poco comunes" y no representan el uso típico del chatbot.
Por tanto, la cuestión central en esta disputa es cómo los modelos de lenguaje aprenden de los contenidos protegidos por derechos de autor. Los abogados del NYT están investigando si el proceso de entrenamiento de ChatGPT constituye una "copia" en términos legales y si el aprendizaje del modelo transforma suficientemente el contenido original para desvincularlo de su fuente. Se espera que las decisiones judiciales en este caso puedan sentar un precedente para la regulación del entrenamiento de modelos de IA en Estados Unidos, especialmente considerando que el Congreso del país aún no ha intervenido en este ámbito, a diferencia de la Unión Europea.
Implicaciones
La comparación con Napster es importante porque, aunque Napster fue finalmente clausurada, su legado impulsó a la industria musical a adoptar el modelo de streaming, que ahora domina en la música, el cine y los videojuegos. No obstante, los abogados del NYT argumentan que OpenAI, al ser una empresa sofisticada respaldada por Microsoft, tiene un enfoque mucho más calculado que Napster; es una entidad que busca explotar contenido protegido con fines comerciales.
Este caso podría llegar hasta el Tribunal Supremo de Estados Unidos y sentar un precedente importante en la industria. La cuestión principal es si el uso de contenido protegido por parte de OpenAI puede considerarse "transformador" y, por lo tanto, estar amparado bajo la doctrina del uso justo, o si simplemente está copiando y beneficiándose del trabajo de otros.