El dueño de Twitter y el creador de Microsoft agravan sus diferencias y esta vez el disparador es el popular ChatGPT.

Un tweet de Elon Musk contra Bill Gates desató una gran polémica sobre la inteligencia artificial. El dueño de Twitter aseguró que el conocimiento de Gates sobre IA es “limitado”, incluso siendo participe clave de OpenAI, la empresa que desarrolla el popular ChatGPT.
Un punto clave en la historia de los dos empresarios tecnológicos es que Musk fue uno de los fundadores de OpenAI. Sin embargo, abandonó su lugar en la empresa en 2018 y allí comenzó sus críticas, incluso su vínculo con Microsoft, la compañía de Gates.
“Es una empresa de máximo beneficio de código cerrado controlada efectivamente por Microsoft”, aseguró en más de una oportunidad sobre el presente de la empresa que fundó, algo que se alejó de la idea inicial del proyecto. De todos modos, el sitio Semafor detalló que el malestar de Elon Musk comenzó cuando Sam Altman y el resto de fundadores de OpenAI no quisieron que sea él el director, lo que decantó en su salida.

Con respecto a Bill Gates, el empresario escribió en su blog que quedó asombrado por el progreso constante de la compañía que creó ChatGPT y que mantiene reuniones con ellos desde 2016.
De todos modos, la rivalidad entre Musk y Gates no es una novedad. Los primeros chispazos en su trato aparecieron durante la pandemia de Coronavirus, donde ambos tenían opiniones opuestas sobre la gravedad del asunto.

Además, el dueño de Twitter expresó tiempo atrás que sus “conversaciones con Gates han sido decepcionantes“. Lo cierto es que el contexto de sus palabras parecía tener un giro que mezcla lo personal con lo profesional ya que el creador de Microsoft se compró un Porsche Taycan por sobre un Tesla.
Esto piden Musk y otros expertos para frenar el avance de herramientas de Inteligencia Artificial como ChatGPT
Los expertos en IA han firmado una petición para que las empresas con modelos muy avanzados paren durante 6 meses y se pongan de acuerdo en qué protocolos de seguridad deben tener en cuenta.
Elon Musk fundó OpenAI, la empresa desarrolladora de ChatGPT y DALL-E hace ya casi 8 años. Sin embargo, dejó su dirección en 2019 e incluso llegó a reconocer que la Inteligencia Artificial era “bastante peligrosa” y que temía “haber hecho algunas cosas para acelerarla”.
Para intentar paliar lo que construyó en su día, el empresario ha firmado, junto con otros 1.100 expertos en IA, una petición a los grandes desarrolladores de estas herramientas para que frenen su entrenamiento durante medio año. Su intención es que, en ese tiempo, se puedan establecer unas regulaciones que permitan crear esta tecnología de forma más ética.
“Solicitamos a todos los laboratorios de Inteligencia Artificial que suspendan inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4“, se lee en la carta pública. Esta petición incluye ChatGPT-5 que, desde que salió la última actualización, tiene toda la atención del equipo de OpenAI.
Entre las caras conocidas que han firmado el documento, están, aparte de Musk, Yoshua Bengio, profesor de la Universidad de Monreal, que es considerado pionero de la IA moderna; Steve Wozniak, creador de la primera máquina Apple; Yuval Noah Harari, historiador; y Jaan Tallinn, cofundador de Skype.
La carta, publicada en Future of Life Institute, una organización sin ánimo de lucro cuya finalidad es luchar contra los riesgos tecnológicos que pueden ser un peligro para la humanidad, exige que la pausa de entrenamiento sea “pública y verificable”. No obstante, no ofrecen ejemplos de cómo podría verificarse dicha interrupción.
Los firmantes explican que “si la pausa no puede promulgarse rápidamente”, los gobiernos deberán ser los encargados de “intervenir e instituir una moratoria”.
En el documento, apuntan a que las IAs “pueden suponer un profundo riesgo para la sociedad y la humanidad” y que no se está teniendo la planificación y cuidado pertinente. “Se ha producido una carrera descontrolada para desarrollar sistemas cada vez más poderosos que nadie, ni siquiera sus creadores, entienden, predicen o pueden controlar con fiabilidad”, defienden.
Durante la paralización del entrenamiento de IAs potentes, los firmantes proponen que los laboratorios y los expertos independientes aprovechen “para desarrollar e implementar de forma conjunta una serie de protocolos de seguridad”. También piden a los Gobiernos que aceleren unos marcos regulatorios que sean capaces de vigilar el desarrollo y pensar protocolos para mitigar posibles daños.