Proiect-pilot la nivel european pentru consolidarea increderii in inteligenta artificiala
Data: 16 – 30 aprilie 2019
Comisia Europeană (CE) a anunţat lansarea unui proiect-pilot pentru a se asigura că pot fi puse în practică orientările etice pentru dezvoltarea și utilizarea inteligenței artificiale (IA). În acest context, CE a invitat sectoarele interesate, institutele de cercetare și autoritățile publice să testeze lista detaliată de evaluare, care completează orientările și care a fost întocmită de grupul de experți la nivel înalt. Planurile fac parte din Strategia privind IA, prezentată în aprilie 2018, ce vizează majorarea investițiilor publice și private până la cel puțin 20 de miliarde de euro pe an în următorul deceniu, punerea la dispoziție a mai multor date, stimularea talentelor și asigurarea încrederii în această tehnologie.
Inteligența artificială poate aduce beneficii într-o gamă largă de sectoare, cum ar fi asistența medicală, consumul de energie, automobilele, agricultura, schimbările climatice și gestionarea riscurilor financiare. „De asemenea, IA poate contribui la detectarea fraudelor și a amenințărilor cibernetice și le permite autorităților de aplicare a legii să combată criminalitatea într-un mod mai eficient. IA aduce însă și noi provocări pentru viitorul locurilor de muncă și ridică probleme juridice și etice. Abordarea Comisiei este trilaterală: instituie cerințele-cheie pentru o inteligență artificială de încredere, demarează o etapă-pilot la scară largă pentru părțile interesate și depune eforturi în vederea ajungerii la un consens internațional în ceea ce privește dezvoltarea unei inteligențe artificiale centrate pe factorul uman", se arată într-un comunicat al CE. Au fost identificate şapte aspecte esențiale pentru o inteligență artificială în care să putem avea încredere:
▪ Implicare și supraveghere umană: sistemele de IA ar trebui să faciliteze existența unor societăți echitabile prin sprijinirea implicării factorului uman și a respectării drepturilor fundamentale, fără să reducă, să limiteze sau să compromită autonomia umană;
▪ Robustețe și siguranță: o IA în care putem avea încredere presupune ca algoritmii să fie siguri, fiabili și suficient de solizi pentru a face față erorilor sau inconsecvențelor de pe parcursul întregului ciclu de viață al sistemelor de IA;
▪ Respectarea vieții private și guvernanța datelor: cetățenii ar trebui să dețină controlul deplin asupra propriilor date, care să nu fie utilizate în scopuri prejudiciabile sau discriminatorii;
▪ Transparență: ar trebui asigurată trasabilitatea sistemelor de IA;
▪ Diversitate, nediscriminare și echitate: sistemele de IA ar trebui să țină seama de întreaga gamă de abilități, competențe și cerințe din partea factorului uman și să asigure accesibilitatea;
▪ Bunăstare societală și de mediu: sistemele de IA ar trebui utilizate pentru a accelera schimbările sociale pozitive și pentru a favoriza dezvoltarea durabilă și responsabilitatea ecologică;
▪ Responsabilitate: ar trebui instituite mecanisme care să asigure responsabilitatea și răspunderea sistemelor de IA și a acțiunilor acestora.