OpenAI anunció la creación de un equipo dedicado a gestionar los riesgos asociados con los sistemas de inteligencia artificial (IA) superinteligentes que se espera que lleguen en la próxima década. En su blog, OpenAI reconoció el potencial de la superinteligencia para resolver problemas importantes, pero también señaló los riesgos asociados con su desarrollo.
La organización sin fines de lucro planea destinar el 20% de su potencia informática existente a este esfuerzo, con el objetivo de desarrollar un investigador de alineación automatizado de nivel humano. Este investigador automatizado ayudaría a garantizar la seguridad y la alineación de la superinteligencia con las intenciones humanas.
El científico jefe de OpenAI, Ilya Sutskever, y el jefe de alineación del laboratorio de investigación, Jan Leike, liderarán este nuevo equipo. OpenAI también ha hecho un llamado abierto a investigadores y ingenieros de aprendizaje automático para unirse al proyecto.
Este anuncio de OpenAI se produce en un momento en que los gobiernos de todo el mundo están considerando medidas regulatorias para controlar el desarrollo y el uso de sistemas de IA. La Unión Europea ha avanzado en la implementación de regulaciones de IA, y el Parlamento Europeo aprobó recientemente su Ley de IA inicial, que tiene como objetivo regular el uso de sistemas de IA, incluido el requisito de que se revele el contenido generado por IA.
En los Estados Unidos, los legisladores también han propuesto leyes y comisiones para abordar la regulación de la IA. OpenAI, junto con otras empresas de tecnología, ha sido instada a etiquetar el contenido generado por IA para una mayor transparencia.
OpenAI reconoce la importancia de gestionar los riesgos asociados con la superinteligencia y está tomando medidas para garantizar su desarrollo responsable y seguro.
0 comentarios