IA
Tecnología

Proyecto Q*, la inteligencia artificial de OpenAI que pondría en jaque a la humanidad

El despido y regreso de Sam Altman como presidente ejecutivo de la firma habría empañado un avance que da alas a la posibilidad de desarrollar lo que se conoce como inteligencia artificial generalista. ¿De qué se trata?

OpenAI ChatGPT
Foto de Levart_Photographer (Unsplash).

El culebrón Altman, aunque parecía relegado al olvido tras la reincorporación del ejecutivo a la startup de inteligencia artificial (IA), suma un nuevo capítulo. Y es que se ha dado a conocer un importante avance tecnológico que podría haber sido la gota que colmó el vaso y terminó en destitución del cargo. Tras cinco días en vilo, el ruido alrededor de la salida forzosa de Sam Altman de la compañía detrás de ChatGPT, podría haber empañado el auténtico titular. Según afirma Reuters, un día antes de su marcha, Sam Altman habría comunicado a la junta directiva que uno de los proyectos capitaneados por Ilya Sutskever, científico jefe de OpenAI, habría conseguido acercar al presente lo que comúnmente se conoce como inteligencia artificial generalista (AGI). Un descubrimiento que, alertaban a la junta, “podría poner en riesgo a la humanidad”. ¿De qué se trata?

En concreto, se trata de un nuevo modelo de IA bautizado como Q* (Q-Star) con la capacidad de resolver por sí mismo problemas matemáticos a un nivel de primaria o secundaria. Aunque a priori esto no pueda parecer una revolución importante, lo cierto es que este algoritmo podría comenzar a imitar el razonamiento y la inteligencia humana. Hasta la fecha, herramientas como el popular ChatGPT eran capaces de crear o resumir textos gracias a la aplicación de técnicas probabilísticas. Eran entrenadas con una vasta cantidad de información y podían imitar cómo sería la respuesta probable a cualquier pregunta de acuerdo a ello. Sin embargo, no razonan, no emplean la lógica, sino la probabilidad.

En la misiva remitida a la junta se alertaba de que el nuevo avance podía suponer un peligro potencial para la humanidad, aunque es cierto que no se detallaban los riesgos concretos. Como consecuencia no es de extrañar que la carta, tal y como avanzó la citada agencia de noticias, tuviera un peso importante en la decisión de la junta directiva de despedir a Altman. El avance también acrecienta las discrepancias éticas sobre los desarrollos de la compañía.

Mientras que unos recuerdan que OpenAI nació en 2015 como una organización sin ánimo de lucro que promovía la investigación segura y ética de la IA y que advertía del riesgo que supondría el control de esta tecnología por parte de las grandes multinacionales, otros dirigen la empresa hacia una deriva más comercial. Por el momento, seguiremos de cerca la evolución de la startup más codiciada de Silicon Valley.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital