ABONAMENTE VIDEO REDACȚIA
RO
EN
NOU
Numărul 143
Numărul 142 Numărul 141 Numărul 140 Numărul 139 Numărul 138 Numărul 137 Numărul 136 Numărul 135 Numărul 134 Numărul 133 Numărul 132 Numărul 131 Numărul 130 Numărul 129 Numărul 128 Numărul 127 Numărul 126 Numărul 125 Numărul 124 Numărul 123 Numărul 122 Numărul 121 Numărul 120 Numărul 119 Numărul 118 Numărul 117 Numărul 116 Numărul 115 Numărul 114 Numărul 113 Numărul 112 Numărul 111 Numărul 110 Numărul 109 Numărul 108 Numărul 107 Numărul 106 Numărul 105 Numărul 104 Numărul 103 Numărul 102 Numărul 101 Numărul 100 Numărul 99 Numărul 98 Numărul 97 Numărul 96 Numărul 95 Numărul 94 Numărul 93 Numărul 92 Numărul 91 Numărul 90 Numărul 89 Numărul 88 Numărul 87 Numărul 86 Numărul 85 Numărul 84 Numărul 83 Numărul 82 Numărul 81 Numărul 80 Numărul 79 Numărul 78 Numărul 77 Numărul 76 Numărul 75 Numărul 74 Numărul 73 Numărul 72 Numărul 71 Numărul 70 Numărul 69 Numărul 68 Numărul 67 Numărul 66 Numărul 65 Numărul 64 Numărul 63 Numărul 62 Numărul 61 Numărul 60 Numărul 59 Numărul 58 Numărul 57 Numărul 56 Numărul 55 Numărul 54 Numărul 53 Numărul 52 Numărul 51 Numărul 50 Numărul 49 Numărul 48 Numărul 47 Numărul 46 Numărul 45 Numărul 44 Numărul 43 Numărul 42 Numărul 41 Numărul 40 Numărul 39 Numărul 38 Numărul 37 Numărul 36 Numărul 35 Numărul 34 Numărul 33 Numărul 32 Numărul 31 Numărul 30 Numărul 29 Numărul 28 Numărul 27 Numărul 26 Numărul 25 Numărul 24 Numărul 23 Numărul 22 Numărul 21 Numărul 20 Numărul 19 Numărul 18 Numărul 17 Numărul 16 Numărul 15 Numărul 14 Numărul 13 Numărul 12 Numărul 11 Numărul 10 Numărul 9 Numărul 8 Numărul 7 Numărul 6 Numărul 5 Numărul 4 Numărul 3 Numărul 2 Numărul 1
×
▼ LISTĂ EDIȚII ▼
Numărul 93
Abonament PDF

Secure AI și implicaţii

Mircea Ifrim
Java Software Developer @ Public Institution



PROGRAMARE

Când discutăm despre inteligenţa artificială, trebuie să considerăm faptul că aceasta poate fi utilizată atât în scopurile precise și bine intenţionate pentru care a fost creată, dar și în scopuri neautorizate, îndepărtate de intenţia iniţială. Trebuie subliniat faptul că inteligenţa artificială este astăzi utilizată în sisteme software și hardware foarte avansate și performante, dar și pentru protejarea a nenumărate resurse și echipamente valoroase, din ce în ce mai diversificate, disponibile în cloud și nu numai. Putem astăzi înţelege că accesând într-un anume fel sistemele ce folosesc inteligenţa artificială se pot obţine rezultate spectaculoase și semnificative, dar se poate întâmpla ca, atunci când scopul este nu tocmai cel mai bine intenţionat, rezultatele unor statistici să fie influenţate într-un mod negativ sau să se obţină accesul neautorizat la resurse software și hardware, ajungându-se la efecte de impact nedorit.

În perioada curentă, tendinţa este de a instala și de a face posibile in cloud procesările ce folosesc AI și Machine Learning (ML). Aceste aranjamente sunt privite cu prudenţă și necesită expertiză la cel mai înalt nivel, întrucât vulnerabilităţile de securitate cibernetică, ce pot apărea, ar putea încetini sau chiar împiedica complet aplicaţiile AI. Când discutăm despre specificul aplicaţiilor ce folosesc AI/ML, se observă următoarele caracteristici ale seturilor de date utilizate de acestea: datele sunt private și esențiale, dar, în același timp ele sunt și date reale ce apar în clar în bazele de date. Numai având aceste caracteristici, seturile de date permit dezvoltarea de modele pe baza lor, crearea de seturi de test și obţinerea rezultatelor esențiale ce se află în scopul respectivelor aplicaţii. Devine astfel evident faptul că utilizarea de AI/ML in cloud și nu numai a condus la cerinţe noi și multiple inovaţii pentru a face accesibile și vizibile în mod restricţionat datele pe baza cărora se rulează modele ce pot conduce la rezultate practice extrem de valoroase. Aceste rezultate devin astfel accesibile și pot răspunde multor întrebări cheie ale știinţei, dar, în același timp, pot ajuta și simplii utilizatori reprezentaţi de cetăţenii de rând pentru a le aduce confort sporit în viaţa de zi cu zi.

Se poate constata că securitatea cibernetică este considerată în unele cazuri ca fiind cu un pas în urma tehnologiilor de AI utilizate in cloud. Acest lucru se întâmplă deoarece aproape fiecare aplicaţie de AI vine cu un specific al său și cu multe cerinţe proprii, care pot avea la rândul lor anumite caracteristici specifice, dar și din cauza faptului că în majoritatea cazurilor, acest tip de software nu este izolat, ci este accesibil prin Internet lăsând loc de vulnerabilităţi. Toate acestea fac ca acest tip de aplicaţii să fie și o provocare pentru inamicii lor, care, folosind unelte din ce în ce mai avansate încearcă să exploateze vulnerabilităţi și să obţină acces neautorizat la aceste aplicaţii și la bazele de date care se află în spatele lor. Întrucât aceste motive sunt de o importanţă mărită și trebuie întotdeauna luate în calcul pentru a asigura securitatea AI-ului, au apărut numeroase soluţii care vin în ajutorul AI pentru a-l face secure atât în cloud, dar și în alte aplicabilităţi din ce în ce mai diversificate (putem aici menţiona CrowdStrike Falcon sau Watson de la IBM, ambele folosite pentru a rula secure AI și mai ales în cloud). Atacurile asupra software-ului AI ce sunt preîntâmpinate pot fi și atacuri de alterare a datelor și a rezultatelor finale, ce au ca scop inducerea de fluctuaţii în datele finale, conducând la realizarea de acţiuni neautorizate, care altfel nu ar fi fost posibile - unele dintre acestea putând genera chiar noi vulnerabilităţi exploatabile de cei neautorizaţi.

În 2020 piaţa software-ului ce utilizează AI este evaluată conform statisticilor la 15 miliarde de euro, fapt ce indică faptul că AI-ul nu mai este doar o tendinţă de dezvoltare a software-ului viitorului, ci mult mai mult de atât: o semnificativă cotă parte din piaţa software ce poate dicta modul de pregătire pentru milioane de ingineri și specialiști IT. Dimensiunea și scara ecosistemelor ce folosesc AI si ML sunt și ele impresionante, având adesea la bază investiţii foarte ridicate în software-ul și hardware-ul extrem de specializate. Există numeroase sisteme AI a căror valoare curentă se ridică la peste 1 miliard de euro, investiţii ce trebuie apărate împotriva vulnerabilităţilor folosind soluţii performante și updatabile în mod continuu.

O soluţie curentă, deși nu omniprezentă, pentru a face AI-ul secure este folosirea de AI-as-a-service, facilitate ce este disponibilă curent prin serviciile oferite de giganţi precum Google, Amazon, IBM sau Microsoft. Astfel de iniţiative conduc curent la apariţia pe piaţă a numeroși producători de servicii AI plătite, care permit accesul la modele ce pot ridica valoarea afacerilor din domenii din ce în ce mai diversificate și mai inovatoare. Putem constata faptul că fără AI, pe piaţa existentă multe servicii software nu ar fi fost deloc posibile și nu s-ar fi produs această diversificare tehnologică atât în zona software dar și în cea de hardware. Ca exemplificare, se pot enumera: Siri - asistentul personal de la Apple, Alexa - companionul virtual de la Amazon ce te poate ajuta aducând confort mărit în existenţa de zi cu zi, dar și în foarte multe situaţii practice, autovehiculele Tesla, Cogito - utilizat în zona de customer support, John Paul - ce folosește AI pentru a surprinde într-un mod plăcut și elegant cele mai elevate gusturi în materie de călătorii, AI-ul utilizat în comerţul online de către Amazon sau inovaţiile IBM în zonele de chip-uri neuromorfice, deep reasoning și quantum computing.

Se poate considera și faptul că atacurile AI sunt o clasă aparte de atacuri, complet diferită de atacurile cibernetice tradiţionale. De exemplu, în timp ce atacurile cibernetice tradiţionale exploatează buguri sau greșeli introduse în cod de programator, atacurile împotriva AI sunt date de limitări ale algoritmilor de AI/ML rulaţi, limitări care nu pot fi întotdeauna complet preîntâmpinate în faţa atacurilor.

Securitatea cibernetică în AI este extrem de importantă din cauză că atacatorii cibernetici pot încerca crearea de haos și de diferite probleme în sistemele ce manifestă vulnerabilităţi. Inteligenţa artificială, ca și gândirea umană cu care poate fi adesea asemănată, poate fi uneori înșelată dacă se cunoaște logica ce se află în spatele ei și modul în care aceasta operează.

Figure 1. Secure AI - source: intelligentciso.com

Există cazuri în care inteligenţa artificială a fost păcălită (reinforcement learning, unsupervised learning, dimensionality reduction etc.), iar câteva exemple vor fi ilustrate în continuare. În zona de social media industry, s-a constatat de pildă că se pot scrie comentarii negative care pot fi percepute ca pozitive, iar această clasificare este uneori atât de sensibilă încât poate fi schimbată doar prin simpla modificare a unui singur cuvânt. În zona industriei financiare, se acordă o importanţă deosebită atacurilor asupra sistemelor AI ce pot fi, de exemplu, chiar sisteme de detecţie a fraudelor, a prăbușirilor anumitor pieţe, sau pur și simplu sisteme ce clasifică comportamentul utilizatorilor. În zona de smart home, putem înţelege lesne efectele inducerii în eroare ale asistentului inteligent, fapt ce poate face vulnerabil căminul locuit. Și în zona de retail unde se folosesc sisteme de recunoaștere facială, studiile au identificat numeroase atacuri ce pot fi iniţiate asupra acestora, atacuri ce folosesc drept sursă metode de păcălire a sistemelor clasificatoare de imagini. Să menţionăm bineînţeles și zona de cybersecurity unde atacatorii, folosind AI și ML, pot schimba forma, modul de răspândire, dar și modurile de atac ale diverșilor agenţi software pe care îi controlează. Să ne gândim ce efecte devastatoare ar putea avea un acces neautorizat în zona de transportation, când atacatorul are drept scop inducerea de comenzi eronate asupra mijloacelor de transport folosite de pasagerii numeroși pentru a-i pune pe aceștia în pericol.

Putem concluziona că industria AI / ML se află în continuă dezvoltare, și că, pe lângă implementarea efectivă a algoritmilor specifici acestei industrii, se dezvoltă în paralel și o nouă categorie de specialiști și metode care le pot asigura funcţionarea corectă nealterată în condiţii sigure. Colaborările de acest tip sunt cu atât mai importante în contextual IoT și Industry 4.0 când dispozitive din ce în ce mai diversificate devin interconectate la viteze ce până nu demult erau considerate ameţitoare, aproape imposibil de realizat. Ar merita menţionat și faptul că la nivelul Uniunii Europene, AI-ul și în special secure AI-ul constituie o direcţie strategică de dezvoltare creând premisele necesare pentru un mediu tehnologic mai sigur, mai confortabil și mai simplu de accesat pentru utilizatorii din ce în ce mai numeroși.

Conferință

NUMĂRUL 142 - Robotics & AI

Sponsori

  • Accenture
  • BT Code Crafters
  • Accesa
  • Bosch
  • Betfair
  • MHP
  • BoatyardX
  • .msg systems
  • Yardi
  • P3 group
  • Ing Hubs
  • Colors in projects

INTERVIURI VIDEO