EE. UU busca establecer normas para regular el uso de la IA

El gobierno de Estados Unidos ha iniciado un proceso de consulta pública para explorar la necesidad y la viabilidad de regular las aplicaciones de IA

La inteligencia artificial (IA) es una de las tecnologías más prometedoras del siglo XXI, pero también una de las más controvertidas y potencialmente peligrosas. Entre las aplicaciones de IA que más han llamado la atención se encuentra ChatGPT, una herramienta de generación de texto que utiliza un modelo de lenguaje basado en redes neuronales profundas para crear textos originales e inéditos a partir de unas pocas palabras o frases.

ChatGPT ha demostrado ser capaz de generar textos coherentes, creativos y convincentes sobre cualquier tema. Sin embargo, también ha causado muchas preocupaciones sobre sus posibles usos maliciosos o irresponsables, como la difusión de desinformación, la violación de derechos de autor, la suplantación de identidad o la manipulación de opiniones.

Estados Unidos busca regular las normas de uso de las Inteligencias Artificiales 

Ante este escenario, el gobierno de Estados Unidos ha iniciado un proceso de consulta pública para explorar la necesidad y la viabilidad de regular las aplicaciones de IA como ChatGPT, así como otras herramientas de inteligencia artificial generativa que pueden tener un impacto significativo en la sociedad, la economía y la seguridad nacional. Según informó el New York Times, el Departamento de Comercio presentó la semana pasada una solicitud formal que incluye medidas de responsabilidad, como la posibilidad de exigir un proceso de certificación previo al lanzamiento de nuevos modelos de IA potencialmente peligrosos.

El objetivo es recolectar las opiniones y sugerencias de todos los actores implicados en el desarrollo y el uso de la IA, desde los investigadores y las empresas hasta los consumidores y las organizaciones civiles, durante un periodo de 60 días. Con esta iniciativa, Estados Unidos busca no quedarse atrás respecto a otros países o regiones que ya han avanzado en la regulación o la ética de la IA, como Europa, que el año pasado presentó una propuesta legislativa para establecer un marco común y armonizado sobre el uso humano y confiable de la IA.

El creador de ChatGPT, Sam Altman, se ha mostrado favorable a la regulación de la IA y ha reconocido que su herramienta podría ser "aterradora" si cae en manos equivocadas. En una entrevista con Business Insider, Altman dijo que la regulación de la IA "será crítica" en el futuro y que espera que se haga "de forma inteligente y equilibrada".

Sin embargo, no todos los países comparten la misma visión sobre cómo regular la IA. Algunos, como China o Rusia, han apostado por una mayor inversión y desarrollo de la IA con fines estratégicos o militares, lo que podría generar una carrera armamentística o una brecha tecnológica con respecto a otras naciones. Otros, como Italia, han optado por restringir temporalmente el uso de ChatGPT ante las dudas sobre el tratamiento y la protección de los datos personales de los usuarios que se utilizan para entrenar el modelo.

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS