Elon Musk demanda a la inteligencia artificial (Open AI)

Un caso de litigio legal por los alcances del contrato

En una movida que ha sacudido los cimientos del sector tecnológico y jurídico, Elon Musk ha iniciado acciones legales contra OpenAI, acusando a la organización de una serie de violaciones y conductas que desafían tanto la ética empresarial como los principios legales.

Esta demanda no solo arroja luz sobre las tensiones inherentes a las ambiciones filantrópicas frente a las realidades comerciales en el ámbito de la inteligencia artificial, sino que también pone en tela de juicio las bases mismas sobre las que se construyen y se mantienen los acuerdos en el mundo de la tecnología.

La acusación central de Musk se basa en lo que él percibe como un incumplimiento flagrante de un supuesto “Acuerdo Fundacional” por parte de OpenAI. Este acuerdo, según Musk, se encuentra implícito en una serie de comunicaciones y documentos fundacionales de la organización. Sin embargo, lo que complica esta acusación es la naturaleza etérea de dicho acuerdo.

En lugar de un contrato claramente definido y firmado, lo que Musk sugiere es una especie de entendimiento tácito en correos electrónicos y discusiones informales. Este planteamiento desafía las nociones convencionales de cómo se formulan y se interpretan los contratos en el ámbito legal, especialmente entre entidades y individuos con recursos y conocimientos sofisticados.

Lo que se destaca de este enfoque es la dificultad inherente de probar la existencia de un contrato cuando no hay un documento único que lo especifique claramente. La ley tradicionalmente exige que para que un contrato sea válido y exigible, debe haber un acuerdo claro sobre los términos, así como una intención de crear obligaciones legales. Sin embargo, la demanda sugiere que estos criterios pueden haberse cumplido de manera más fluida y menos formal de lo que los marcos legales estándar podrían reconocer fácilmente.

Más allá de la cuestión del contrato, la demanda de Musk toca un tema aún más provocativo: el de la estoppel promisorio. Este principio, aunque raramente invocado, sostiene que una parte puede verse obligada a cumplir una promesa si la otra parte ha confiado en esa promesa de manera significativa y ha sufrido un perjuicio como resultado. La aplicación de este concepto a la situación actual sugiere que Musk cree haber actuado en dependencia de las promesas hechas por OpenAI, a pesar de la falta de un acuerdo formal. Esto abre un interesante debate sobre la relación entre la confianza, la promesa y la acción en el contexto de las donaciones y el apoyo financiero a organizaciones que se presentan con una misión altruista.

Además, la demanda arroja una sombra sobre las prácticas empresariales y éticas de OpenAI, insinuando que la organización, a pesar de sus afirmaciones de trabajar por el bien de la humanidad, opera con motivaciones que se alinean más estrechamente con las de una empresa tecnológica convencional en busca de lucro. Este señalamiento no solo cuestiona la autenticidad de la misión de OpenAI, sino que también refleja una crítica más amplia a la tendencia de las organizaciones tecnológicas de presentarse como benefactoras de la humanidad mientras persiguen agresivamente agendas comerciales.

La demanda de Musk contra OpenAI, por lo tanto, se convierte en un caso fascinante que abarca numerosos aspectos del derecho contractual, la ética empresarial y la filosofía de la tecnología. A medida que el caso se desarrolla, promete ser un punto de referencia para debates futuros sobre cómo las leyes y los acuerdos deben adaptarse para mantenerse al día con la evolución de la tecnología y sus implicaciones sociales. Asimismo, plantea preguntas fundamentales sobre la naturaleza de las promesas y los compromisos en un mundo donde los límites entre lo personal, lo profesional y lo filantrópico se están volviendo cada vez más borrosos.

 

Texto de la demanda de Elon Musk contra AI

 

El Riesgo de la Inteligencia General Artificial

A lo largo del siglo XX, Estados Unidos se transformó gradualmente de una economía basada principalmente en el trabajo humano a una economía basada principalmente en el conocimiento humano, con el valor económico siendo creado cada vez más por la inteligencia humana. A medida que avanzaba el siglo, ya se estaba produciendo otro cambio de paradigma: la creación de valor a través de la inteligencia artificial (IA).

Los primeros programas de IA eran capaces de superar a los humanos en ciertas tareas discretas. Casi inmediatamente después de la invención de la computadora programable, la IA podía mostrar un rendimiento superhumano en problemas altamente formalizados, como encontrar el camino más rápido a través de una red de carreteras. La IA tardó más en alcanzar la superioridad en problemas que requerían más creatividad. En 1996, el programa de IA Deep Blue de IBM venció a Gary Kasparov, el campeón mundial de ajedrez de entonces. Estos programas, aunque útiles, eran básicamente caballos de un solo truco: su inteligencia no era general. Deep Blue tenía masivos arreglos de procesadores que solo podían jugar al ajedrez. Los algoritmos para encontrar caminos podían resolver un laberinto o trazar una ruta para un automóvil, pero no podían pintar un cuadro.

A partir de finales de los 2000s y principios de los 2010s, un algoritmo más antiguo llamado “aprendizaje profundo” se volvió práctico para implementar en hardware de bajo costo por primera vez. Esto causó una revolución casi de la noche a la mañana en el rendimiento en casi todos los proyectos de IA. Se desarrollaron nuevos algoritmos de primera clase para convertir el habla en texto, traducir entre idiomas y reconocer qué tipo de comida se muestra en una foto. Una de las características distintivas del aprendizaje profundo es que los algoritmos no necesitan ser diseñados con un conocimiento significativo de la tarea en cuestión. Aprenden cada tarea a partir de ejemplos de entrenamiento, programándose esencialmente a sí mismos. Esto significa que son mucho más de propósito general que sistemas anteriores como Deep Blue.

A medida que los algoritmos de aprendizaje profundo se volvían cada vez más sofisticados, algunos de los principales investigadores de IA del mundo pusieron sus ojos en lo que ha llegado a llamarse Inteligencia General Artificial (AGI). El concepto básico de AGI es un sistema de inteligencia artificial de propósito general: una máquina que tiene inteligencia para una amplia variedad de tareas como un humano.

El Sr. Musk ha reconocido desde hace tiempo que la AGI representa una grave amenaza para la humanidad, quizás la mayor amenaza existencial que enfrentamos hoy. Sus preocupaciones reflejan las expresadas antes por luminarias como Stephen Hawking y el fundador de Sun Microsystems, Bill Joy. Nuestra economía entera se basa en el hecho de que los humanos trabajan juntos y encuentran las mejores soluciones para una tarea difícil. Si una máquina puede resolver casi cualquier tarea mejor que nosotros, esa máquina se vuelve más útil económicamente que nosotros. Como advirtió el Sr. Joy, con una AGI fuerte, “el futuro no nos necesita”. El Sr. Musk hizo un llamado público para una variedad de medidas para abordar los peligros de la AGI, desde moratorias voluntarias hasta regulación, pero sus llamados cayeron mayormente en oídos sordos.

Pero donde algunos, como el Sr. Musk, ven una amenaza existencial en la AGI, otros ven la AGI como una fuente de lucro y poder.

En 2014, Google adquirió DeepMind, un grupo de investigación enfocado en el aprendizaje profundo. Uno de los desarrollos iniciales de DeepMind fue AlphaZero, un algoritmo para jugar al ajedrez. A diferencia de algoritmos anteriores, sin embargo, AlphaZero utilizó “aprendizaje por refuerzo”, donde el programa aprende a jugar al ajedrez jugando contra sí mismo con diferentes versiones del software. Comienza jugando al azar, sin entender la estrategia del juego. Cuando una versión del software gana un juego contra otra, las vías internas del programa ganador se “refuerzan” y el proceso se repite.

AlphaZero rápidamente se convirtió en el sistema de juego de ajedrez más fuerte del mundo. Sorprendentemente, también se anunció que el mismo programa era también el más fuerte del mundo para jugar otros dos juegos extremadamente difíciles. En palabras de Google/DeepMind, “Partiendo de un juego al azar, y sin más conocimiento del dominio que las reglas del juego, AlphaZero alcanzó en 24 horas un nivel de juego superhumano en los juegos de ajedrez y shogi (ajedrez japonés) así como en Go, y derrotó de manera convincente a un programa campeón mundial en cada caso”.

Con el equipo de DeepMind, Google se catapultó de inmediato a la vanguardia de la carrera por la AGI. El Sr. Musk estaba profundamente preocupado por este desarrollo. Creía (y todavía cree) que en manos de una compañía cerrada y con fines de lucro como Google, la AGI representa un peligro particularmente agudo y nocivo para la humanidad. En 2014, ya era lo suficientemente difícil competir con Google en sus negocios principales. Google había recopilado un conjunto de datos únicamente grande a partir de nuestras búsquedas, nuestros correos electrónicos y casi cada libro en nuestras bibliotecas. Sin embargo, hasta ese punto, todos tenían el potencial de competir con Google a través de la inteligencia humana superior y el trabajo duro. La AGI haría la competencia casi imposible.

El Acuerdo Fundacional de OpenAI, Inc.

El Sr. Altman pretendía compartir las preocupaciones del Sr. Musk sobre la amenaza que representa la AGI. En 2015, el Sr. Altman escribió que el “[d]esarrollo de la inteligencia máquina superhumana (SMI) es probablemente la mayor amenaza para la existencia continuada de la humanidad. Hay otras amenazas que creo que son más ciertas de ocurrir… pero es poco probable que destruyan a cada humano en el universo de la manera que podría hacerlo la SMI”. Más tarde ese mismo año, el Sr. Altman se acercó al Sr. Musk con una propuesta: que unieran fuerzas para formar un laboratorio de IA sin fines de lucro que intentara alcanzar a Google en la carrera por la AGI, pero sería lo opuesto a Google.

Juntos con el Sr. Brockman, los tres acordaron que este nuevo laboratorio: (a) sería una entidad sin fines de lucro que desarrollaría AGI para el beneficio de la humanidad, no para una compañía con fines de lucro que busca maximizar las ganancias de los accionistas; y (b) sería de código abierto, equilibrando solo las consideraciones de seguridad contrapuestas, y no mantendría su tecnología cerrada y secreta por razones comerciales propietarias (el “Acuerdo Fundacional”). Reflejando el Acuerdo Fundacional, el Sr. Musk nombró este nuevo laboratorio de IA “OpenAI”, que competiría con, y serviría como un contrapeso vital a, Google/DeepMind en la carrera por la AGI, pero lo haría para beneficiar a la humanidad, no a los accionistas de una compañía privada con fines de lucro (mucho menos una de las compañías de tecnología más grandes del mundo).

El Acuerdo Fundacional también fue memorializado, entre otros lugares, en el Certificado de Incorporación de OpenAI, Inc. del 8 de diciembre de 2015, que afirmaba que su “tecnología resultante beneficiaría al público y la corporación buscaría hacer de la tecnología de código abierto para el beneficio público cuando sea aplicable. La corporación no está organizada para el beneficio privado de ninguna persona”. El Certificado de Incorporación afirmaba además que toda la propiedad de la corporación estaba “irrevocablemente dedicada” a estos propósitos acordados.

En dependencia del Acuerdo Fundacional, el cual el Sr. Altman, el Sr. Brockman, y OpenAI, Inc. reafirmaron con el Sr. Musk en múltiples ocasiones, el Sr. Musk fue una fuerza impulsora detrás de la creación de OpenAI, Inc., contribuyendo la mayoría de su financiamiento en sus primeros años, asesorando en direcciones de investigación, y más importante, reclutando a algunos de los científicos e ingenieros líderes en el mundo para trabajar en la empresa sin fines de lucro, incluyendo al Científico (…)

 

musk-v-altman-openai-complaint-sf

AIChat GPdemandaElon MuskIAinteligencia artificialopen ai