OpenAI centra su atención en la superinteligencia en 2025


OpenAI ha anunciado que su enfoque principal para el próximo año será el desarrollo de “superinteligencia”, según un publicación de blog de Sam Altman. Esto se ha descrito como IA con capacidades superiores a las humanas.

Si bien el conjunto actual de productos de OpenAI tiene una amplia gama de capacidadesAltman dijo que la superinteligencia permitirá a los usuarios realizar “cualquier otra cosa”. Destaca la aceleración de los descubrimientos científicos como el principal ejemplo que, en su opinión, conducirá al mejoramiento de la sociedad.

“Esto suena a ciencia ficción en este momento, y un poco loco incluso hablar de ello. Está bien, hemos estado allí antes y estamos bien con estar allí de nuevo”, escribió.

El cambio de dirección ha sido impulsado por la confianza de Altman en que su empresa ahora sabe “cómo construir AGI como la hemos entendido tradicionalmente”. La AGI, o inteligencia artificial general, suele definirse como un sistema que iguala las capacidades humanas, mientras que la superinteligencia las supera.

VER: Sora de OpenAI: todo lo que necesitas saber

Altman ha estado observando la superinteligencia durante años, pero existen preocupaciones

OpenAI se refiere a la superinteligencia desde hace varios años cuando Discutiendo los riesgos de los sistemas de IA. y alinearlos con los valores humanos. En julio de 2023, OpenAI anunció que era Contratación de investigadores para trabajar en la contención de la IA superinteligente..

Según se informa, el equipo dedicaría el 20% de OpenAI potencia informática total hasta capacitar a lo que ellos llaman un investigador de alineación automatizada a nivel humano para mantener en línea los futuros productos de IA. Las preocupaciones en torno a la IA superinteligente surgen de cómo un sistema de este tipo podría resultar imposible de controlar y podría no compartir los valores humanos.

“Necesitamos avances científicos y técnicos para dirigir y controlar sistemas de IA mucho más inteligentes que nosotros”, escribieron el jefe de alineación de OpenAI, Jan Leike, y el cofundador y científico jefe Ilya Sutskever en un publicación de blog En el momento.

VER: OpenAI y Anthropic Sign llegan a acuerdos con el Instituto de Seguridad de IA de EE. UU.

Pero, cuatro meses después de crear el equipo, otro puesto de empresa reveló que “todavía no sabían cómo dirigir y controlar de manera confiable sistemas de IA sobrehumanos” y no tenían una forma de “evitar que (una IA superinteligente) se volviera rebelde”.

En mayo, OpenAI el equipo de seguridad de superinteligencia fue disuelto y varios miembros del personal superior se fueron debido a la preocupación de que “la cultura y los procesos de seguridad hayan pasado a un segundo plano frente a productos brillantes”, incluidos Jan Leike y el codirector del equipo, Ilya Sutskever. El trabajo del equipo fue absorbido por otros esfuerzos de investigación de OpenAI, según cableado.

A pesar de esto, Altman destacó la importancia de la seguridad para OpenAI en su publicación de blog. “Seguimos creyendo que la mejor manera de hacer que un sistema de IA sea seguro es liberándolo de manera iterativa y gradual en el mundo, dando tiempo a la sociedad para adaptarse y coevolucionar con la tecnología, aprender de la experiencia y continuar haciendo que la tecnología sea más segura. ”, escribió.

“Creemos en la importancia de ser líderes mundiales en investigación de seguridad y alineación, y de guiar esa investigación con comentarios de aplicaciones del mundo real”.

El camino hacia la superinteligencia aún puede estar a años de distancia

Hay desacuerdo sobre cuánto tiempo pasará hasta que se logre la superinteligencia. La publicación del blog de noviembre de 2023 decía que podría desarrollarse en una década. Pero casi un año después, Altman dijo que podría ser “A unos miles de días de distancia”.

Sin embargo, Brent Smolinski, vicepresidente de IBM y director global de Tecnología y Estrategia de Datos, dijo que esto era “totalmente exagerado”, en un sentido puesto de empresa a partir de septiembre de 2024. “No creo que estemos ni siquiera en el código postal correcto para llegar a la superinteligencia”, dijo.

La IA todavía requiere muchos más datos que los humanos para aprender una nueva capacidad, su alcance es limitado y no posee conciencia ni autoconciencia, lo que Smolinski considera un indicador clave de superinteligencia.

También afirma que la computación cuántica podría ser la única forma de desbloquear una IA que supere la inteligencia humana. A principios de la década, IBM predijo que La cuántica comenzaría a resolver problemas empresariales reales. antes de 2030.

VER: El avance en la computación cuántica en la nube garantiza su seguridad y privacidad

Altman predice que los agentes de IA se unirán a la fuerza laboral en 2025

Los agentes de IA son semiautónomos IA generativa que pueden encadenarse o interactuar con aplicaciones para llevar a cabo instrucciones o tomar decisiones en un entorno no estructurado. Por ejemplo, Salesforce utiliza agentes de IA para llamar a clientes potenciales de ventas.

TechRepublic predijo a finales de año que el El uso de agentes de IA aumentará en 2025. Altman se hace eco de esto en su blog y dice que “podemos ver a los primeros agentes de IA ‘unirse a la fuerza laboral’ y cambiar materialmente la producción de las empresas”.

VER: IBM: TI empresarial frente a una inminente revolución de agentes de IA

Según un trabajo de investigación de Gartnerlos primeros agentes de la industria que dominarán serán el desarrollo de software. “Los asistentes de codificación de IA existentes ganan madurez y los agentes de IA proporcionan el siguiente conjunto de beneficios incrementales”, escribieron los autores.

Para 2028, el 33% de las aplicaciones de software empresarial incluirán IA agente, frente a menos del 1% en 2024, según el documento de Gartner. Para ese año, una quinta parte de las interacciones con las tiendas online y al menos el 15% de las decisiones laborales del día a día serán realizadas por agentes.

“Estamos empezando a llevar nuestro objetivo más allá de eso, hacia la superinteligencia en el verdadero sentido de la palabra”, escribió Altman. “Estamos bastante seguros de que en los próximos años todos verán lo que nosotros vemos, y que la necesidad de actuar con mucho cuidado, sin dejar de maximizar los amplios beneficios y el empoderamiento, es muy importante”.

Leave a Reply

Your email address will not be published. Required fields are marked *