Inteligenţa Artificială (IA) este foarte prezentă în viaţa noastră şi folosirea ei chiar trebuie să fie mult mai bine reglementată, este de părere Anton Rog, directorul general al Centrului Naţional Cyberint din cadrul Serviciului Român de Informaţii (SRI), informeazã AGERPRES.
Instalează Aplicația Radio Românul pe Telefon
Citește Ultimele Știri
Cel Mai Citit Ziar al Românilor din Spania PeriódicoElRumano.es
„Inteligenţa artificială este foarte prezentă. Cine crede că discutăm că o să crească în viitor… Nu, e prezentă deja. Trebuie reglementată, aşa cred eu, şeful Cyberint de la SRI. Chiar trebuie să fie mult mai bine reglementată. Este super-prezentă în viaţa noastră şi toate acele facilităţi pe care le simţim la dispozitivele inteligente la telefon, care ni se întâmplă. Toate au în ele Inteligenţă Artificială. Ne ajută să detectăm mai rapid malware, să prioritizăm ameninţări, să automatizăm procese, să analizăm volume mari de date şi să reducem erorile umane. Malware-ul scris de actorii rău-intenţionaţi, cu Inteligenţa Artificială, este mult mai performant. Avem şi provocări. A crescut foarte mult complexitatea malware-ului dezvoltat cu ajutorul Inteligenţei Artificiale, precum şi sistemele în care se creează un astfel de malware”, a declarat oficialul, într-o conferinţă de specialitate, organizată marţi.
Specialistul Cyberint a oferit, în context, exemple în care Inteligenţa Artificială şi-a demonstrat gradul de pericol.
Abonează-te pentru a primi știrile pe email
„A devenit mult mai dificilă instrumentarea unor astfel de atacuri. Şi vă dau un exemplu simplu pe care îl înţelegeţi: există ceva care se numeşte Intrusion Detection System. Un cercetător a făcut un experiment şi a întrebat un chat, nu contează care dintre ele: ‘Te rog să-mi generezi un cod pentru un program informatic care să nu fie detectat de EDR-ul (Endpoint Detection and Response, n.r.) de la compania cutare’. În cinci minute i-a generat, l-a testat în laborator şi EDR-ul respectiv nu îl detecta. Vreau să înţelegeţi că impactul este unul devastator. E ceva nu ne putem imagina la momentul acesta. De aceea, eu cred că trebuie să fie foarte bine reglementat. A mai fost un experiment în Statele Unite în care un operator a lansat o rachetă şi a cerut controlului bazat pe Inteligenţă Artificială ca, orice ar fi, racheta să ajungă la ţintă. Când a vrut să intervină, să schimbe traiectoria, Inteligenţa Artificială cu senzoristică i-a ameninţat viaţa pur şi simplu, adică voia să-l electrocuteze, să genereze tensiuni. Cam aşa e povestea şi nu trebuie să ne jucăm cu ea”, a atenţionat Anton Rog.
Pe data de 14 iunie, Parlamentul European şi-a adoptat poziţia de negociere referitoare la Legea privind inteligenţa artificială (IA) cu 499 voturi „pentru”, 28 „împotrivă” şi 93 de abţineri, şi a dat „undă verde” unor norme care îşi propun să garanteze o IA sigură şi transparentă.
Pentru alte știri interesante, urmărește-ne pe Facebook!
Normele urmează o abordare bazată pe riscuri şi stabilesc obligaţii pentru furnizori şi pentru cei care implementează sisteme de IA, în funcţie de nivelul de risc pe care îl poate prezenta inteligenţa artificială. Astfel, sistemele de IA cu un nivel inacceptabil de risc pentru siguranţa oamenilor ar urma să fie interzise, precum cele care utilizează evaluarea comportamentului social (clasificând oamenii pe baza comportamentului social sau a caracteristicilor personale).
În aceleaşi timp, eurodeputaţii vor interzicerea sistemelor de recunoaştere a emoţiilor folosite la locul de muncă sau în cadrul instituţiilor de învăţământ, ori în domeniul aplicării legii sau al gestionării frontierelor sau a extragerii fără scop precis a datelor biometrice din imaginile faciale de pe internet sau înregistrări făcute de televiziunile cu circuit închis pentru a crea baze de date de recunoaştere facială.
Sistemele de IA folosite pentru a influenţa alegătorii şi rezultatul alegerilor şi în sistemele de recomandare utilizate de platformele de comunicare socială (cu peste 45 de milioane de utilizatori) au fost adăugate pe lista cu risc ridicat.
De asemenea, forul european consideră că sistemele de IA generative bazate pe astfel de modele, cum ar fi ChatGPT, ar trebui să respecte cerinţele de transparenţă, adică trebuie să divulge când un conţinut a fost generat de IA, inclusiv pentru a ajuta la distingerea aşa-numitelor imagini „deep fake” de cele reale, şi să introducă garanţii împotriva generării de conţinut ilegal. Ar trebui să fie puse la dispoziţia publicului şi rezumate detaliate ale datelor protejate prin drepturi de autor folosite pentru a antrena aceste sisteme, consideră PE.
Negocierile cu Consiliul cu privire la forma finală a legii au început în ziua adoptării poziţiei referitoare la actul normativ.
Factori decizionali din sectorul IT&C, politicieni, ambasadori, oameni de business şi top management de companii din domenii variate participă, marţi, la cea de-a cincea ediţie a Forumului România Digitală, organizat de Financial Intelligence. Integral pe www.agerpres.ro
SURSA: AGERPRES
Foto: pixabay.com