Abuzul sexual asupra minorilor prin conținut AI, la cote alarmanteCreșterea accelerată a conținutului de abuz sexual asupra minorilor generat cu inteligență artificială ridică semnale serioase de alarmă în Europa, pe fondul presiunilor publice pentru reglementarea urgentă a tehnologiilor „necenzurate”. Un raport publicat pe 24 martie de organizația britanică Internet Watch Foundation (IWF) indică o amplificare fără precedent a fenomenului în 2025, atât ca volum, cât și ca gravitate a materialelor din online.Potrivit documentului, intitulat „Harm without limits: AI child sexual abuse material through the eyes of our Analysts”, organizația a identificat anul trecut 8.029 de imagini și videoclipuri generate cu ajutorul inteligenței artificiale care reproduc abuzuri sexuale asupra copiilor, în creștere cu 14% față de 2024. Dintre acestea, 3.443 sunt videoclipuri, adică o creștere de peste 260 de ori comparativ cu cele doar 13 cazuri detectate în anul precedent. Mai mult, 65% dintre aceste videoclipuri au fost clasificate în Categoria A (cea mai severă în legislația din Regatul Unit), care include violențe extreme precum violul sau tortura sexuală. Prin comparație, doar 43% din conținutul video non-AI se încadrează în această categorie, ceea ce sugerează că inteligența artificială este utilizată pentru a produce materiale mai violente și mai explicite.Raportul arată și dinamica îngrijorătoare din mediile online clandestine, unde utilizatorii discută deschis despre modalități de a exploata noile tehnologii. Analiștii IWF au observat conversații în care infractorii își împărtășesc tehnici pentru a transforma imagini reale ale copiilor în materiale abuzive generate de AI sau chiar pentru a folosi camere ascunse în scopul obținerii de conținut brut. În paralel, aceștia anticipează dezvoltarea unor sisteme de tip „agentic AI”, capabile să producă automat videoclipuri complexe pornind de la simple instrucțiuni text, fără competențe tehnice avansate.Un alt aspect care ia amploare este utilizarea componentelor audio fabricate cu AI. Deși evaluarea materialelor exclusiv audio nu intră, în mod obișnuit, în atribuțiile IWF, analiștii au identificat cazuri de videoclipuri complet generate de AI, în care atât imaginea, cât și vocea copilului sunt artificiale, dar extrem de realiste. Această evoluție amplifică dificultățile de detectare și intervenție.Datele sunt publicate simultan cu un sondaj realizat de compania Savanta, care arată că 82% dintre adulții britanici susțin intervenția guvernului pentru a obliga dezvoltatorii de AI să integreze măsuri de siguranță încă din faza de proiectare. De asemenea, 78% consideră că firmele ar trebui să fie obligate să testeze riscurile înainte de lansarea produselor pe piață.Reprezentanții autorităților subliniază că fenomenul are consecințe directe asupra victimelor și contribuie la escaladarea comportamentelor infracționale. National Crime Agency atrage atenția că materialele generate de AI sunt ilegale și alimentează abuzurile, în contextul în care poliția britanică efectuează lunar aproximativ 1.000 de arestări și protejează peste 1.200 de copii în cazuri legate de exploatarea sexuală online.În acest context, IWF solicită înăsprirea legislației și introducerea obligativității pentru companiile tehnologice de a evalua și securiza modelele AI înainte de lansare. Presiunea publică și datele recente indică faptul că reglementarea nu mai este o opțiune, ci o necesitate imediată, într-un ecosistem digital în care capacitățile tehnologice depășesc rapid mecanismele actuale de control.Cum își propune UE să prevină astfel de abuzuri. Momentan, legislația stagneazăReacția Uniunii Europene la astfel de abuzuri a fost promptă, dar insuficientă. Scandalul din luna ianuarie privind AI-ul Grok a provocat indignare în rândul decidenților și a accelerat inițiativele de interzicere a aplicațiilor de tip “AI nudification”. Cu toate acestea, la doar două luni distanță, IWF atrage atenția că UE riscă să-și submineze propriile eforturi. Problema principală este expirarea derogării temporare de la Directiva ePrivacy, care permite platformelor online să detecteze și să raporteze direct materialele de abuz sexual asupra copiilor. Dacă această derogare nu este prelungită înainte de 3 aprilie, companiile tehnologice vor intra într-o zonă gri, de incertitudine juridică. Monitorizarea conținutului ar putea deveni ilegală în anumite condiții, ceea ce ar paraliza mecanismele actuale de detecție. Consecința directă ar fi o circulație mult mai dificil de controlat a materialelor, inclusiv a celor generate de AI.