Investigadores de OpenAI advierten sobre un avance que mejora a la humanidad antes de la muerte de Altman | Tecnología

Varios investigadores de la empresa OpenAI nombraron a la junta directiva poco antes de la muerte de Sam Altman como director general de una empresa charter, según han, publicado por la agencia Reutersel medio especializado La información, que cite fuentes conocidas con la misma información sin identificación. Anunció un poder de investigación de la inteligencia artificial que, según él, podría mejorar a la humanidad. No está claro que el documento se haya añadido al mapa a pesar de Altman. Las fuentes citadas por Reuters son la señal decisiva, minetras que el medio especializado El borde Asegúrese de que la tarjeta no se quede con el consumidor y no la verá a pesar de Altman.

La fulminante visión de Altman se produjo como parte de unas directrices celebradas en paralelo con la Asociación Económica Asia-Pacífico (Apec). “Cuatro veces en la historia de OpenAI, la más reciente fue solo un fin de semana, tuvo la oportunidad de estar en la sala para que empujáramos la bicicleta de la ignorancia hacia adelante y hacia la frontera del descubrimiento, y podemos hacerlo. es el honor profesional de mi vida”, dijo. En principio, el comentario o los resultados concretos del experimento no tienen ninguna importancia particular.

Continuar La información, Algunos empleados de OpenAI Screen que tienen las palabras de Altman se refieren a una innovación realizada por los investigadores de la compañía de acuerdo con los principios de este año que les permitió desarrollar modelos de inteligencia artificial mucho más potentes, según una persona familiarizada con la persona. El técnico avanzado, director del científico jefe de OpenAI, Ilya Sutskever, expresó la preocupación entre algunos empleados de la empresa de que no estaban discutiendo las salvaguardias adecuadas para la comercialización de modelos avanzados de inteligencia artificial.

Según las fuentes citadas por Reuters, la carta fue un factor en una larga lista de daños causados ​​desafiando a Altman. La agencia no puede hacer una copia de la tarjeta ni comunicarla a los investigadores que la redactan. Según una de las fuentes, la directiva Mira Murati, inicialmente catalogada como reemplazante interina de Altman, mencionó el proyecto, llamado Q*, a los empleados de esas universidades y dijo que enviaron una tarjeta a la junta antes del final de Altman, quien luego ha sido readmitido por la presión de empleados e inversores.

Al publicar la información, un portal OpenAI dijo a Reuters que Murati informó a los empleados quién anunció la publicación en el medio, pero no habló sobre la veracidad de la información. Ahora, el fabricante de ChatGPT ha avanzado en Q* (pronunciado Q-Star), que algunos están creando internamente y que podría suponer un gran paso adelante en la búsqueda de la superinteligencia (lo mejor para los humanos), también conocida como inteligencia artificial. . general (AGI, por sus siglas inglesas). Otras personas se han familiarizado con el proyecto Q*, sin embargo, sin considerar que se trata de un avance roto.

Problemas de matematicas

Gracias a sus enormes recursos informáticos, el nuevo modelo tiene la capacidad de resolver determinados problemas matemáticos. Una vez realizadas operaciones matemáticas a nivel de alumnos de primaria, la superposición de este tipo de evaluación es tal que los investigadores se muestran muy optimistas sobre el futuro del resultado Q*, confirmó la fuente. La diferencia entre una calculadora que puede resolver un número limitado de operaciones, IAG puede generalizarla, aprenderla y comprenderla.

Los investigadores consideran que las matemáticas están en la frontera del desarrollo de la IA generativa. Actualmente, el generador de IA está bien escrito y traducido en términos de predicción estadística del siguiente idioma, como en ChatGPT. Las respuestas a una misma pregunta pueden variar mucho. Pero conquistar la capacidad de hacer cálculos matemáticos allí solo tiene una respuesta correcta, lo que implica que la IA tendrá una mayor capacidad de razonamiento que la inteligencia humana. Esto podría aplicarse, por ejemplo, a la nueva investigación científica creada por investigadores de IA.

Según Reuters, en su boletín, los investigadores informan sobre proyectos de IA y su potencial. Desde hace algún tiempo se debate mucho entre los informáticos sobre el peligro que suponen las máquinas superinteligentes, por ejemplo, para la destrucción de la humanidad. La junta directiva de OpenAI tenía dos personas muy sensibles a estos riesgos, que se redujeron como parte de la respuesta al regreso de Altman.

Según la carta que los empleados enviaron con motivo de su reducción, esta información se transmite independientemente de las directivas que permiten que la destrucción de la empresa sea coherente con su misión a favor de la humanidad. Y, de hecho, un nuevo líder provisional, Emmet Shear, que automáticamente se define como un apocalíptico En el regreso de Altman también colaboró ​​el partidario del desarrollo de la inteligencia artificial.

Puedes seguir un EL PAÍS Tecnología fr. FacebookX o haga clic aquí para recibir el nuestro boletín semanal.