El gobierno australiano ha anunciado repentinamente una consulta de ocho semanas buscando opiniones sobre qué tan de cerca se debe vigilar el sector de la IA.
El gobierno australiano ha anunciado una consulta repentina de ocho semanas que busca comprender si se deben prohibir las herramientas de inteligencia artificial de «alto riesgo».
Otras regiones, incluyendo Estados Unidos, la Unión Europea y China, también han tomado medidas para comprender y mitigar los riesgos asociados con el rápido desarrollo de la IA en los últimos meses.
El 1 de junio, el ministro de Industria y Ciencia, Ed Husic, anunció la publicación de dos documentos: un documento de debate sobre «IA segura y responsable en Australia» y un informe sobre IA generativa del Consejo Nacional de Ciencia y Tecnología.
Los documentos vinieron acompañados de un período de consulta que se extenderá hasta el 26 de julio.
El gobierno busca comentarios sobre cómo apoyar el «uso seguro y responsable de la IA» y discute si se deben adoptar enfoques voluntarios como marcos éticos, si se necesita una regulación específica o si se debe emprender una combinación de ambos enfoques.
Una pregunta en la consulta pregunta directamente si «las aplicaciones o tecnologías de IA de alto riesgo deberían prohibirse por completo» y qué criterios deberían utilizarse para identificar tales herramientas de IA que deberían ser prohibidas.
Se incluyó un borrador de matriz de riesgos para los modelos de IA con el fin de recibir comentarios en el documento de debate integral. Aunque solo proporciona ejemplos, clasificó a la IA en automóviles autónomos como de «alto riesgo», mientras que una herramienta de IA generativa utilizada para un propósito como la creación de registros médicos de pacientes se consideró de «riesgo medio».
El documento resaltó el uso «positivo» de la IA en las industrias médica, de ingeniería y legal, pero también sus usos «perjudiciales», como herramientas de falsificación profunda, uso en la creación de noticias falsas y casos en los que los bots de IA habían promovido la autolesión.
El sesgo de los modelos de IA y las «alucinaciones» (información falsa o sin sentido generada por la IA) también se mencionaron como problemas.
El documento de debate afirma que la adopción de la IA es «relativamente baja» en el país, ya que existe «un bajo nivel de confianza pública». También señaló la regulación de la IA en otras jurisdicciones y la prohibición temporal de ChatGPT en Italia.
Mientras tanto, el informe del Consejo Nacional de Ciencia y Tecnología indicó que Australia cuenta con algunas capacidades de inteligencia artificial ventajosas en robótica y visión por computadora, pero su «capacidad fundamental central en [modelos de lenguaje grande] y áreas relacionadas es relativamente débil», y añadió:
«La concentración de recursos de IA generativa en un pequeño número de grandes empresas tecnológicas multinacionales y principalmente con sede en los EE. UU. plantea riesgos potenciales [sic] para Australia».
El informe profundizó en la regulación global de la IA, proporcionó ejemplos de modelos de IA generativa y opinó que «probablemente afectarán a todo, desde la banca y las finanzas hasta los servicios públicos, la educación y las industrias creativas».
#AI is already part of our lives. As the technology develops, we need to ensure it meets Australians’ expectations of responsible use. Be part of the @IndustryGovAu discussion, below. https://t.co/Gz11JCXlsG
— Australia's Chief Scientist (@ScienceChiefAu) June 1, 2023
0 comentarios