Ocurrió un grave caso de abuso sexual en una escuela de San Martín. Un alumno de 15 años fue acusado de crear con Inteligencia Artificial (IA) imágenes falsas de sus compañeras desnudas y venderlas por internet.
La denuncia la presentaron un grupo de padres de chicos que asisten al colegio San Agustiniano, tras descubrir el caso a través de uno de los compañeros, quien se hizo pasar por comprador y consiguió el CBU y la foto del estudiante que realizaba las ventas.
El estudiante en cuestión utilizaba la plataforma Discord para crear grupos, invitando a otros estudiantes a unirse a un chat privado. Desde allí, difundía fotos y videos de sus compañeras. Lo cierto es que esas imágenes eran falsas, ya que utilizaban IA para "desnudarlas".

Florencia, madre de una de las víctimas, señaló que el compañero que se hizo pasar por comprador les "mostró las pruebas" y a partir de eso hicieron la denuncia. Además, detalló que el chico en cuestión tomaba las fotos de perfil de las estudiantes y usaba solo su cara, pero el resto del cuerpo no eran de ellas.
Según indicó Florencia, son al menos 22 las chicas que fueron víctimas de este delito, pero señala que hay más jóvenes de otros colegios que estarían siendo afectadas. "Cuando entré al grupo, había imágenes de muchas adolescentes, y los consumidores son mayores y menores", señaló.
"Mi hija está avergonzada, no quiere volver al colegio", lamentó Florencia, quien aseguró que varios padres están preocupados por la seguridad de sus hijas. "Es muy grave, no podemos permitir que esto siga pasando", advirtió.