(Por Sebastián Di Domenica +IA) La inteligencia artificial se ha convertido en una de las tecnologías más relevantes de nuestro tiempo, con capacidad de transformar sectores que van desde la medicina hasta las finanzas. El potencial para reemplazar funciones cognitivas humanas genera tanto oportunidades extraordinarias como riesgos significativos, lo que ha llevado a gobiernos de todo el mundo a plantearse la necesidad urgente de marcos regulatorios específicos.

A nivel global, han emergido tres modelos principales de regulación. Estados Unidos ha optado por un enfoque que prioriza la innovación, manteniendo una regulación mínima para no frenar la inversión privada y el desarrollo tecnológico. En contraste, la Unión Europea ha implementado un modelo más estricto, basado en la gestión de riesgos y la protección de los ciudadanos. China, por su parte, ha desarrollado un sistema centralizado y autocrático que permite un control gubernamental directo sobre el desarrollo y uso de la IA.

Argentina se encuentra en una encrucijada regulatoria. Aunque no existe todavía una ley específica aprobada sobre inteligencia artificial, varios proyectos han sido creados y deben ser analizados en comisión antes del debate en el Congreso Nacional. El más avanzado es el presentado por el senador Claudio Martín Doñate, que busca establecer un marco legal integral para abordar los múltiples desafíos que presenta esta tecnología.

Los proyectos legislativos argentinos apuntan a crear leyes marco que regulen aspectos cruciales como la prevención de riesgos asociados al uso de IA, la reducción de brechas digitales que podrían ampliar desigualdades existentes, y el impulso al desarrollo tecnológico nacional. También incluyen medidas específicas para combatir las fake news y los deep fakes, fenómenos particularmente preocupantes por su potencial para desinformar y dañar reputaciones.

Una preocupación central es la implementación de controles estatales efectivos. Los proyectos proponen la creación de órganos auditables que supervisen los desarrollos tecnológicos y evalúen riesgos de manera continua. Esta supervisión resultaría fundamental para garantizar transparencia y responsabilidad en sectores sensibles como salud, justicia y seguridad, donde los errores o abusos pueden tener consecuencias devastadoras.

La regulación también debe contemplar la estandarización mediante protocolos similares a las normas ISO, que permitan establecer criterios uniformes para el desarrollo y uso de sistemas de IA. Esto facilitaría la interoperabilidad entre diferentes plataformas y garantizaría estándares mínimos de seguridad y calidad en todas las aplicaciones.

El fenómeno de los deep fakes representa uno de los desafíos más complejos. Aunque existen normativas para proteger la imagen y el honor de las personas, estas resultan insuficientes frente a las nuevas capacidades de manipulación digital (como el caso de la deep fake que tuvo como víctima a la periodista Julia Mengolini). La actualización del marco legal debe contemplar específicamente estos riesgos emergentes, para establecer sanciones claras y mecanismos de detección y prevención efectivos en redes sociales. Un proyecto de ley de Dinamarca sobre el tema puede ser el modelo a seguir.

Finalmente, el impacto de la desinformación generada por IA trasciende lo individual para amenazar la propia democracia. La manipulación mediática facilitada por estas tecnologías puede erosionar la confianza pública y distorsionar procesos electorales. Por ello, la futura regulación argentina deberá incluir mecanismos robustos para preservar la integridad informativa, equilibrando la protección democrática con la libertad de expresión y la innovación tecnológica.

---

*La información surge de la entrevista a Sebastián Di Domenica en Canal E*