Minnesota avanza para prohibir las aplicaciones de IA que generan imágenes falsas de desnudos

La Cámara de Representantes y el Senado de Minnesota han aprobado un proyecto de ley que prohíbe el uso de herramientas de inteligencia artificial para generar imágenes falsas de desnudos, una medida que responde al creciente escándalo de los llamados "deepfakes" sexuales. La legislación, que ahora se dirige al escritorio del gobernador Tim Walz para su firma, no solo penaliza la creación de este contenido sintético, sino que también otorga a las víctimas el derecho de demandar a los desarrolladores y distribuidores de estas aplicaciones. Se trata de un paso significativo en la regulación de la IA, un campo donde los marcos legales aún luchan por mantenerse al ritmo de la innovación tecnológica.
El proyecto de ley, conocido como HF 1370, tipifica como delito menor la creación y difusión no consentida de imágenes generadas por IA que representen a una persona real en un estado de desnudez o en una situación sexual explícita. La propuesta va más allá de las leyes tradicionales contra la pornografía de venganza, que generalmente se centran en imágenes reales. Al abordar específicamente el contenido sintético, Minnesota se posiciona como uno de los primeros estados en atacar de frente el problema de los "deepfakes" sexuales, un fenómeno que ha afectado desproporcionadamente a mujeres, adolescentes y figuras públicas, y que se ha visto facilitado por la proliferación de aplicaciones de IA accesibles al público general.
Un elemento clave de la legislación es la disposición que permite a las víctimas presentar demandas civiles contra los creadores de las aplicaciones, no solo contra quienes las utilizan para generar las imágenes. Esto representa un cambio de enfoque importante, ya que tradicionalmente la responsabilidad recaía en el usuario final. Al apuntar a los desarrolladores, la ley busca desincentivar la creación misma de herramientas diseñadas para este propósito. Los demandantes podrían reclamar daños y perjuicios, incluyendo compensación por angustia emocional, pérdida de ingresos y costos legales, lo que podría tener un efecto disuasorio significativo en la industria tecnológica.
El contexto de esta medida es alarmante. Estudios recientes han documentado un aumento exponencial en la creación de deepfakes sexuales, con un 96% de todo el contenido deepfake en internet siendo de naturaleza pornográfica, según datos de la firma de seguridad Sensity. La mayoría de las víctimas son mujeres, y muchas veces las imágenes se crean sin su conocimiento o consentimiento, utilizando fotos de redes sociales o incluso de perfiles públicos. Minnesota no es un caso aislado; estados como Virginia, California y Texas ya han aprobado leyes contra los deepfakes sexuales, pero la inclusión de la responsabilidad civil para los desarrolladores de aplicaciones convierte a esta propuesta en una de las más integrales hasta la fecha.
Sin embargo, la legislación no está exenta de desafíos. Críticos y expertos en derechos digitales han señalado posibles problemas de aplicación, como la dificultad de identificar a los desarrolladores anónimos que operan desde el extranjero o la delgada línea entre una herramienta de IA de uso general y una diseñada específicamente para crear desnudos falsos. Además, el proyecto de ley incluye exenciones para usos legítimos, como la sátira, la parodia o la educación, lo que podría dar lugar a disputas legales sobre los límites de la libertad de expresión protegida por la Primera Enmienda de la Constitución de Estados Unidos.
El gobernador Walz, un demócrata, no ha indicado públicamente si firmará el proyecto de ley, pero dada la naturaleza bipartidista del apoyo en la legislatura estatal, se espera que lo convierta en ley. De hacerlo, Minnesota se uniría a un creciente número de jurisdicciones que buscan frenar el uso malicioso de la inteligencia artificial generativa. La medida también envía una señal clara a la industria tecnológica: la era de la autorregulación en el espacio de la IA está llegando a su fin, y los estados están dispuestos a intervenir con sanciones severas para proteger a los ciudadanos de los abusos más flagrantes de esta tecnología.
En última instancia, el proyecto de ley de Minnesota representa un experimento legal crucial. Mientras el Congreso de Estados Unidos debate una regulación federal más amplia sobre la inteligencia artificial, los estados actúan como laboratorios de democracia, probando diferentes enfoques para abordar problemas complejos. La efectividad de esta ley dependerá de su aplicación y de si sobrevive a los inevitables desafíos judiciales. Pero por ahora, ofrece un modelo potencial para otras regiones que buscan equilibrar la innovación tecnológica con la protección de la dignidad y la privacidad individual en la era digital.
Relacionados

El texto de la Ley de Claridad permite a las empresas cripto ofrecer recompensas en stablecoins mientras protegen el rendimiento bancario
1 de mayo de 2026
Las acciones de Strategy (MSTR) suben un 9% mientras el precio de Bitcoin vuelve a los $78,000
1 de mayo de 2026