En los recientes años, individuos como Taylor Swift y la legisladora Alexandria Ocasio-Cortez, así como estudiantes de secundaria alrededor del país, han enfrentado casos de deepfakes sin consentimiento y de contenido gráfico: fotografías donde el rostro de alguien se coloca sobre un cuerpo desnudo usando tecnología de inteligencia artificial.
Después de varios meses de activismo, por fin se ha establecido una legislación federal que castiga la difusión de estas imágenes.
El mandatario de los Estados Unidos, Donald Trump, aprobó la Ley de Eliminación de Imágenes en una ceremonia realizada en la Casa Blanca este lunes. Además de considerar ilegal la distribución de imágenes gráficas y no consensuadas en internet, ya sean auténticas o generadas digitalmente, la nueva ley exige que las plataformas tecnológicas eliminen dicho contenido dentro de un plazo de 48 horas tras recibir una denuncia.
La normativa fortalecerá la protección para las víctimas de pornografía vengativa y de imágenes sexuales no consentidas creadas por inteligencia artificial, incrementará la responsabilidad de las plataformas digitales donde se distribuye el material, y proporcionará a las autoridades una guía clara sobre cómo abordar esta actividad. Anteriormente, la legislación federal ya prohibía la generación y distribución de imágenes gráficas realistas de menores producidas por inteligencia artificial. Sin embargo, las regulaciones que protegían a las víctimas adultas variaban de un estado a otro y no existían a nivel federal.
La Ley de Retirada de Contenidos también constituye una de las primeras normas federales en Estados Unidos diseñadas para abordar los posibles perjudiciales del contenido creado por inteligencia artificial mientras la tecnología progresa rápidamente.
«Para muchos de nosotros, la inteligencia artificial es algo reciente, por lo que creo que aún estamos entendiendo qué efectos son positivos y cuáles negativos para la sociedad, pero los deepfakes íntimos sin consentimiento son claramente perjudiciales sin aportar nada bueno», afirmó Ilana Beller, coordinadora de Public Citizen, una organización progresista que respalda la ley.
La legislación fue aprobada en ambas cámaras del Congreso casi de manera unánime, con solo dos votos en contra, marcando un raro momento de acuerdo bipartidista. Más de 100 grupos, incluidas organizaciones sin ánimo de lucro y grandes firmas tecnológicas como Meta, TikTok y Google, apoyaron también esta norma.
La primera dama, Melania Trump, mostró su respaldo hacia la propuesta, instando a los miembros de la Cámara de Representantes en abril a que la aprobaran. El presidente mencionó la ley en su discurso durante una sesión conjunta del Congreso en marzo, en la que la primera dama invitó a Elliston Berry, una adolescente víctima. Berry estuvo presente en la ceremonia de firma del proyecto de ley en el Jardín de las Rosas de la Casa Blanca este lunes, junto a Francesca Mani, otra joven que ha abogado por obtener protecciones legales después de ser objeto de dicha forma de acoso.
«Hoy, mediante la Ley Take It Down, subrayamos que la salud de nuestros niños es esencial para el porvenir de nuestras familias en América», manifestó la primera dama este lunes.
El legislador de Texas, Ted Cruz, junto a la legisladora de Minnesota, Amy Klobuchar, introdujeron la propuesta el verano anterior.
Meses atrás, un compañero de Berry, quien es una estudiante de secundaria en Texas, publicó en Snapchat una foto de ella que había extraído de su cuenta de Instagram y editado con tecnología de inteligencia artificial para que pareciera que estaba desnuda. Berry no era la única afectada: jóvenes en Nueva Jersey, California y otras regiones también han sufrido esta forma de acoso.
«Cada día he tenido que lidiar con la angustia de que estas imágenes puedan ser divulgadas o resurjan», comentó Berry a CNN el año pasado durante una entrevista en la que expresaba su apoyo a la Ley Take It Down. «Con la implementación de esta ley, ya no tendré que vivir con temor, sabiendo que quien publique estas fotos enfrentará consecuencias».
Ante la creciente presión sobre esta problemática, varias plataformas tecnológicas de gran relevancia han tomado acciones para ayudar a las víctimas a eliminar imágenes sexuales no consentidas de sus sitios web.
Importantes compañías como Google, Meta y Snapchat ya ofrecen formularios que permiten a los usuarios pedir la eliminación de contenido explícito. Otras se han unido a organizaciones sin fines de lucro como StopNCII. org y Take It Down, que ayudan a borrar este tipo de imágenes en múltiples plataformas simultáneamente, aunque no todos los sitios colaboran con estos organismos.
Asimismo, Apple y Google han tomado medidas para eliminar de sus tiendas de aplicaciones y de los resultados de búsqueda aquellos servicios de inteligencia artificial que transforman imágenes vestidas en desnudos editados.
A pesar de ello, los actores malintencionados frecuentemente buscan plataformas que no implementan medidas para evitar el uso perjudicial de su tecnología, lo que resalta la urgencia de establecer una responsabilidad legal como la que ofrecerá la Ley de Retirada de Contenidos.
“Esta normativa finalmente exige a los usuarios de redes sociales que cumplan con su trabajo y protejan a las mujeres de infringimientos profundamente personales y agresivos de sus derechos”, afirmó Imran Ahmed, director ejecutivo de la organización sin fines de lucro Center for Countering Digital Hate, en una declaración a CNN. “Aunque ninguna ley es una solución perfecta, la situación actual –donde las jóvenes sufren daños graves en línea– es inaceptable”.
Beller, de Public Citizen, agregó que también es “crucial señalar como sociedad que esto no puede ser tolerado”.
“Si nuestra legislación federal aprueba una norma que establece: ‘Esto no es aceptable y estas son las repercusiones’, eso transmite un mensaje contundente”, comentó.
FUENTE: CNNESPANOL.CNN.COM