Wooden letter tiles scattered on a textured surface, spelling 'AI'.

AI Act: de la „folosim puțin AI” la responsabilitate legală reală

Dacă în urmă cu doi ani inteligența artificială părea un subiect exotic, rezervat marilor companii tech, astăzi este deja parte din activitatea zilnică a multor firme din România. Chatboți pentru clienți, instrumente de recrutare, scoring automat, analiză de date, generare de conținut, monitorizare – toate intră, mai devreme sau mai târziu, sub umbrela AI Act.

Problema este că majoritatea companiilor folosesc AI fără să știe exact ce folosesccum este încadrat legal și ce obligații reale au. Iar AI Act schimbă fundamental regula jocului: nu mai contează doar dacă folosești inteligență artificială, ci cumunde și cu ce impact asupra oamenilor.


Ce este, de fapt, AI Act (dincolo de titlu)

AI Act este primul cadru legislativ unitar al Uniunii Europene care reglementează utilizarea inteligenței artificiale, nu doar dezvoltarea ei.
Nu este o lege „anti-AI” și nici una care interzice inovația. Este o lege care introduce responsabilitate, trasabilitate și control.

Abordarea este una aparent simplă:
sistemele de inteligență artificială sunt clasificate în funcție de nivelul de risc pe care îl creează pentru drepturile și siguranța persoanelor.

În realitate, însă, tocmai această clasificare ridică cele mai multe întrebări pentru firme.


„Noi nu dezvoltăm AI, doar îl folosim” – cea mai frecventă confuzie

Un mit foarte răspândit este că AI Act ar viza doar marile companii care dezvoltă modele complexe.
În practică, foarte multe firme sunt vizate ca utilizatori (deployers), chiar dacă folosesc soluții „la cheie”.

De exemplu:

  • un HR care folosește un tool de triere automată a CV-urilor;
  • o firmă care utilizează un sistem de analiză comportamentală a clienților;
  • un call center cu chatbot AI;
  • o companie care folosește AI pentru evaluarea riscului sau luarea deciziilor automate.

Toate aceste situații pot intra sub incidența AI Act, fără ca firma să fi scris vreodată o linie de cod.


De ce contează „riscul” și nu tehnologia

AI Act nu întreabă cât de avansat este algoritmul, ci ce face el în viața reală.
Impactul asupra persoanelor este criteriul central.

Un sistem care recomandă produse într-un magazin online este tratat complet diferit față de un sistem care:

  • influențează decizii de angajare,
  • evaluează eligibilitatea pentru beneficii,
  • analizează comportamente sau profiluri,
  • interacționează cu publicul într-un mod care poate induce în eroare.

Pentru multe firme, surpriza apare în momentul în care descoperă că un instrument aparent banal poate fi considerat AI cu risc ridicat, ceea ce atrage obligații serioase: documentare, evaluări, transparență, control uman.


Ce se schimbă concret pentru companii

AI Act mută discuția din zona „experimentăm” în zona „ne asumăm”.

Din perspectivă practică, firmele trebuie să știe:

  • ce sisteme AI folosesc (inclusiv cele integrate în alte aplicații);
  • ce date sunt utilizate și ce decizii sunt influențate;
  • dacă există impact asupra drepturilor persoanelor (angajați, clienți, utilizatori);
  • cine răspunde intern pentru utilizarea AI.

Pentru multe organizații, acesta este primul moment în care apare nevoia reală de guvernanță AI. Nu politici generale, ci reguli clare, adaptate activității concrete.


De ce AI Act creează confuzie chiar și pentru firme informate

Spre deosebire de GDPR, unde datele personale sunt relativ ușor de identificat, AI Act operează cu concepte noi:

  • „sistem AI” (într-un sens mult mai larg decât pare),
  • „utilizator” versus „furnizor”,
  • „supraveghere umană adecvată”,
  • „utilizare conform scopului”.

Firmele care „știu câte ceva” despre AI Act ajung adesea în același punct: au informații fragmentate, dar nu o imagine clară aplicabilă propriei activități.
Și exact aici apar riscurile: supra-conformare inutilă sau, dimpotrivă, subestimarea obligațiilor reale.


Implementarea AI Act nu este despre a opri AI-ul, ci despre a-l folosi corect

Un lucru este clar: AI-ul nu dispare.
Întrebarea este dacă este folosit controlat sau haotic.

Companiile care tratează AI Act ca pe o simplă obligație birocratică vor avea documente, dar nu claritate. Cele care îl folosesc ca instrument de organizare internă ajung să înțeleagă mai bine:

  • unde au riscuri reale,
  • ce pot automatiza în siguranță,
  • unde este nevoie de intervenție umană.

Diferența dintre aceste două abordări este una strategică.


De ce firmele aleg să lucreze cu specialiști în conformare AI

AI Act se află la intersecția dintre:

  • drept,
  • etică,
  • tehnologie,
  • procese interne.

Puține companii au toate aceste competențe intern.
De aceea, tot mai multe organizații aleg să nu interpreteze singure un regulament complex, cu sancțiuni semnificative și impact reputațional.

La A&T COMPLIANCE CONSULTING SRL, lucrăm exact cu acest tip de realitate: firme care folosesc AI, vor să o facă legal și responsabil, dar fără să blocheze inovația sau activitatea de zi cu zi.
Traducem cerințele AI Act în decizii concrete, adaptate fiecărui model de business.


AI Act nu este despre viitor. Este despre prezent.

Pentru multe companii, AI Act pare încă „ceva ce urmează”.
În realitate, obligațiile se construiesc deja, iar întrebările corecte sunt cele care apar acum, nu după un incident sau un control.

AI Act nu cere ca firmele să devină experți în inteligență artificială.
Cere, însă, să știe ce folosesc, de ce folosesc și ce efecte produce.

Iar acolo unde aceste răspunsuri nu sunt clare, este momentul potrivit pentru o discuție profesionistă.

Leave a Comment

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *