Un nuevo ataque consistente en la generación de fotos pornográficas con IA sacudió al pueblo santafesino de Soldini esta semana, donde un adolescente generó unas 300 imágenes, la gran mayoría de adolescentes e incluso niñas, y las difundió por redes sociales. Un grupo de madres presentó una denuncia, pero la respuesta a la situación se vio medianamente limitada por el vacío legal que hay respecto del uso de Inteligencia Artificial en estos casos.
Soldini es un pueblo de 3700 habitantes, ubicado a 15 kilómetros de Rosario. Allí, volvió a suceder lo que ya pasó en varias otras partes del país y del mundo: un varón tomó imágenes de sus compañeras y otras mujeres del lugar para adosarles un cuerpo desnudo falso, generando fotografías pornográficas con los rostros de ellas a través de una aplicación que funciona con IA. En este caso, se trata de un adolescente de 16 años, también radicado en Soldini.
La madre de una de las niñas afectadas, llamada Cecilia, explicó a Radio 2 que se enteró de lo que estaba pasando con otras madres y padres el domingo pasado, cuando advirtieron que en los grupos de WhatsApp de sus hijos “andaban circulando fotos de nenas del pueblo desde los ocho o nueve años de edad, desnudas”. Según detallaron ella y otra madre identificada como Marianela, el agresor había solicitado conectar con las chicas por Instagram para luego hacer capturas de sus fotos.

“Hay muchas menores de edad, un mayor y grupos de hockey femenino, un surtido de personas del pueblo”, amplió la denunciante. Respecto del agresor, precisó que “asiste a la escuela, todos se conocen y comparten con él muchos ámbitos, ya sea deportivos y en el camping municipal". Cuando se enteraron de lo sucedido, hubo un intento de hablar con los padres del joven, “pero no tuvimos buena respuesta y minimizaron el caso”, sintetizó Cecilia.
Terminaron presentando una denuncia formal. "Lo que más nos interesa es que el rostro de nuestras hijas no se esté difundiendo por todos lados de esa manera”, reclamó la mujer. "Lo que pasa es que una vez que se viraliza no sabes dónde pueden terminar”, dijo, por su parte, Marianela al diario La Capital.
“Hicimos una denuncia en un link que nos pasaron y algunos dicen que no vamos a poder hacer mucho. Pero nosotros queremos que esas fotos no se sigan viralizando para que no lleguen a manos de un pervertido o una página web", explicó.
El vacío legal respecto del uso de IA
También por Radio 2, la abogada Claudia Guardia, especialista en IA, explicó que los delitos que se producen con Inteligencia Artificial no están regulados en nuestro país. También remarcó que no se trata de casos aislados, sino que ya sucedieron “en varios lugares como Córdoba, Buenos Aires, Entre Ríos, Chaco”.
En adelante, explicó que una vez que imágenes tales como las difundidas en Soldini se publican, se pueden “desindexar”, pero lamentó que una vez que el contenido entró en la red “produce mucho daño, es prácticamente irreversible porque esto pasa de ordenador a ordenador. Aunque se desindexe de una plataforma, si ya circuló en teléfonos o computadoras es muy difícil frenar la circulación”.
Por otro lado, la abogada señaló que en otras partes del mundo este tipo de delito se denomina deepfake porno, reconocido como tal en países de la Unión Europea y en Corea. Mientras tanto, en Argentina “se abarca a través de diferentes aspectos, como lesiones o violencia de género”, señaló Guardia y reveló que, según un informe de 2024, en nuestro país aumentaron “un 300% los casos” de denuncias por difusión de material pornográfico creado con IA.

La especialista apuntó tanto a la necesidad de tipificar específicamente el uso de IA como de brindar mayor educación en el tema y señalar la responsabilidad de las plataformas. “Hay falta de educación e información, creo que la clave es la capacitación y educación en el uso responsable de la IA, que puede ser usada para cosas correctas o incorrectas”, expresó.
Y añadió: “Las imágenes se difunden en plataformas como Discord o WhatsApp. Tendríamos que ver qué tipo de responsabilidad tienen esas plataformas en la difusión. Algunas, como ChatGPT o Gémini, la IA de Google, ya empezaron a poner restricciones”.
La respuesta del municipio de Soldini ante el vacío legal
La respuesta comunal también se vio marcada por el vacío legal frente a la IA y la falta de conocimiento en el tema, así como por la carencia de herramientas para abordarlo. La vicepresidenta de la comuna de Soldini, Cecilia Burgueño, dijo a La Capital que apelaron a la solidaridad de los vecinos y que intentarán introducir el tema en las escuelas.
"Hemos estado compartiendo un pedido para que no se difundan más las imágenes. Para quien las tenga, apelamos a la solidaridad para que eliminen las fotos de sus celulares. Lo cierto es que sabemos que con estas nuevas tecnologías es muy difícil encontrar un límite", declaró.
"Vamos a intentar dar charlas sobre el tema para cuando empiecen las clases. Hay que hablar de eso porque generó un gran daño. El nene (por el creador de las imágenes) va a seguir viniendo a la escuela del pueblo. Tenemos que ver cómo abordarlo porque somos un pueblo chico y nos cruzamos todo el tiempo", finalizó.