ABONAMENTE VIDEO REDACȚIA
RO
EN
NOU
Numărul 142
Numărul 141 Numărul 140 Numărul 139 Numărul 138 Numărul 137 Numărul 136 Numărul 135 Numărul 134 Numărul 133 Numărul 132 Numărul 131 Numărul 130 Numărul 129 Numărul 128 Numărul 127 Numărul 126 Numărul 125 Numărul 124 Numărul 123 Numărul 122 Numărul 121 Numărul 120 Numărul 119 Numărul 118 Numărul 117 Numărul 116 Numărul 115 Numărul 114 Numărul 113 Numărul 112 Numărul 111 Numărul 110 Numărul 109 Numărul 108 Numărul 107 Numărul 106 Numărul 105 Numărul 104 Numărul 103 Numărul 102 Numărul 101 Numărul 100 Numărul 99 Numărul 98 Numărul 97 Numărul 96 Numărul 95 Numărul 94 Numărul 93 Numărul 92 Numărul 91 Numărul 90 Numărul 89 Numărul 88 Numărul 87 Numărul 86 Numărul 85 Numărul 84 Numărul 83 Numărul 82 Numărul 81 Numărul 80 Numărul 79 Numărul 78 Numărul 77 Numărul 76 Numărul 75 Numărul 74 Numărul 73 Numărul 72 Numărul 71 Numărul 70 Numărul 69 Numărul 68 Numărul 67 Numărul 66 Numărul 65 Numărul 64 Numărul 63 Numărul 62 Numărul 61 Numărul 60 Numărul 59 Numărul 58 Numărul 57 Numărul 56 Numărul 55 Numărul 54 Numărul 53 Numărul 52 Numărul 51 Numărul 50 Numărul 49 Numărul 48 Numărul 47 Numărul 46 Numărul 45 Numărul 44 Numărul 43 Numărul 42 Numărul 41 Numărul 40 Numărul 39 Numărul 38 Numărul 37 Numărul 36 Numărul 35 Numărul 34 Numărul 33 Numărul 32 Numărul 31 Numărul 30 Numărul 29 Numărul 28 Numărul 27 Numărul 26 Numărul 25 Numărul 24 Numărul 23 Numărul 22 Numărul 21 Numărul 20 Numărul 19 Numărul 18 Numărul 17 Numărul 16 Numărul 15 Numărul 14 Numărul 13 Numărul 12 Numărul 11 Numărul 10 Numărul 9 Numărul 8 Numărul 7 Numărul 6 Numărul 5 Numărul 4 Numărul 3 Numărul 2 Numărul 1
×
▼ LISTĂ EDIȚII ▼
Numărul 142
Abonament PDF

În umbra progresului: Riscurile ignorate ale inteligenței artificiale

Andrei Sipoș
Senior Business Consultant @ msg systems Romania



DIVERSE

Acest articol explorează provocările și riscurile nevăzute asociate cu avansul rapid al inteligenței artificiale. Sub aparența progresului tehnologic, AI poate ascunde pericole vizând confidențialitatea, etica, evoluția pieței muncii și a societății.

Precursorii IA: de la mitologie, până la păcăleli, ficțiune și utopii.

Cu toate acestea, ani mai târziu, s-a dovedit că aparatul era o înșelătorie, deoarece acesta era controlat de un om ascuns într-o încăpere. Această poveste arată cât de ușor suntem păcăliți și cât de impresionați suntem de tehnologie, chiar și atunci când lucrurile par prea bune ca să fie adevărate.

Istoria IA pe scurt

IA se materializează la mijlocul secolului al XX-lea, când pionierii Alan Turing și John McCarthy au pus bazele conceptualizării mașinilor inteligente. De-a lungul decadelor s-au realizat etape semnificative, de la dezvoltarea sistemelor experte până la apariția rețelelor neuronale și la dezvoltarea învățării automate (Machine Learning). În plus, dezvoltarea învățării automate (Machine Learning) a deschis calea către sistemele care pot învăța și se pot adapta în mod autonom, fără a fi nevoie de o programare explicită.

Aceste evoluții demonstrează un potențial uriaș al IA în domenii precum medicina, industria auto, educația, comerț electronic, transportul autonom și asistența personalizată.

Realizări precum victoria lui Deep Blue de la IBM împotriva marelui maestru de șah Garry Kasparov în 1996 și înfrângerea campionului mondial Lee Sedol de AlphaGo al DeepMind la jocul Go în 2016 ar trebui să ne dea o idee despre traiectoria IA pentru viitor.

Însă capacitatea IA de a câștiga jocuri nu reprezintă nici 1% din potențialul său.

Compania NVIDIA estimează că peste 10 ani, jocurile video vor fi create exclusiv de IA Generativ, oferind astfel fiecărui jucător o experiență unică în joc.

Adoptarea IA în viața de zi cu zi:

Integrarea IA în viața noastră a fost graduală și profundă. De la asistenții virtuali precum Siri și Alexa, care simplifică sarcinile banale, până la algoritmii de recomandare care îmbunătățesc experiențele noastre online, IA a devenit un companion indispensabil. Dispozitivele inteligente pentru casă (IoT), vehiculele autonome și aplicațiile personalizate de îngrijire a sănătății subliniază și mai mult prezența sa pătrunzătoare, remodelând modul în care interacționăm cu lumea din jurul nostru.

Toate dispozitivele noi, în special smartphone-urile, se laudă cu adoptarea IA: asistenți virtuali, recunoașterea facială, asistență în editarea pozelor sau a textului etc.

Frigiderele inteligente sunt în stare să ne cunoască atât de bine încât ne pot număra aportul de calorii și ne avertizează dacă acesta este prea mare.

Alexa transformă orice casă în locuință smart: controlează luminile, jaluzelele, temperatura, securitatea etc.

Pentru ca AI să funcționeze conform specificațiilor, proprietarul trebuie să acorde permisiunea pentru preluarea controlului asupra taskurilor menționate mai sus. Această acțiune permite AI-ului să aibă acces la o cantitate semnificativă de informații și să efectueze anumite acțiuni, generând două probleme distincte:

  1. Pentru ca IA-ul să crească, are nevoie de un flux continuu de date. Aceste date îi sunt furnizate gratuit de viitorul posesor al unei case smart. Alexa, Siri și Google ascultă tot timpul și se hrănesc cu datele noastre: obiceiuri, gusturi, acțiuni etc. Datele noastre cu caracter personal sunt cele mai râvnite informații pe internet. PII (Personal Identification Information) sunt mai valoroase în mainile potrivite decât informațiile bancare pentru că informațiile furate de pe cardul bancar se pot folosi o dată, dar informațiile personale reprezintă o sursă inepuizabilă de informații despre un individ. IA-ul integrat nu este tocmai transparent în ceea ce privește prelucrarea datelor cu caracter personal.

  2. Nimic nu este sigur 100%. Orice vulnerabilitate a dispozitivului deștept poate fi exploatată în favoarea unui escroc. Unele modele de Alexa puteau fi păcălite folosind un laser (Light Commands). Dacă un hoț poate să îi comande Alexei, folosind un laser, să deschidă ușa casei sau a garajului, înseamnă că ceva nu este configurat cum trebuie.

IA la locul de muncă:

IA revoluționează industrii din întreg spectrul: industria muzicală, artă, IT, industria editorială, film, relații cu clienții etc.

Iată câteva probleme:

A. "Angajarea" unui robot poate duce la demiterea a trei oameni. Deși IA are un impact pozitiv asupra productivității, vitezei și eficienței angajaților. Din păcate, poate duce, de asemenea, la pierderi semnificative de locuri de muncă și la șomaj în mai multe sectoare. "According to McKinsey & Company, automation may cause a displacement of 400 to 800 million jobs by 2030, resulting in up to 375 million individuals needing to transition to different job categories."

B. Se pare ca IA-ului îi plac stereotipurile, gândind asta, oferă informații false. Din această cauză apar discriminări involuntare și consecințe sociale negative. Când întrebi chat botul să îți arate poze cu oameni de știință. Iată rezultatul:

A se observa "patternul": halat alb, bărbat caucazian, ochelari de vedere.

Un alt exemplu negativ este că IA-ul poate cataloga/eticheta o anumită etnie de oameni. Acest gest poate indigna și induce în eroare utilizatorii. Cum se ajunge aici este explicat în 6.III.

C. Adio intimitate! Pe măsură ce ne străduim să automatizăm tot mai mult și să lucrăm cât mai comod și productiv, este posibil să ne fi sacrificat intenționat sau neintenționat un aspect crucial: confidențialitatea noastră. Pentru ca chat-botul să ne dea un răspuns cât mai detaliat și mai precis, este nevoie să-l hrănim cu date reale și uneori intime.

D. Chat-botul IA (ChatGPT) nu știe chiar tot: învață continuu. Învățarea rezultă din analiza și sintetizarea informațiilor dintr-o sumedenie de texte. Prin interacțiunea cu o varietate de întrebări și subiecte, ChatGPT procesează, asociază și înțelege informațiile. De asemenea, noi utilizatorii contribuim la dezvoltarea și rafinarea cunoștințelor ChatGPT-ului prin întrebările și conversațiile pe care le au împreună. Deci informațiile IA-ului depind într-o mare măsură de persoanele cu care interacționează.

  1. Asta înseamnă că datele generate pot fi adesea inexacte sau având sursa de date necunoscută, ceea ce poate fi foarte incomod și, în unele cazuri, problematic.

  2. Faptul că IA-ul va lua decizii pe cont propriu nu pare a fi o idee bună - a se vedea riscurile expuse mai sus. Apoi, cine va fi tras la răspundere dacă Inteligența Artificială ia o decizie greșită. Inexactitatea informațiilor generate de IA poartă denumirea de halucinații IA (AI Hallucination).

Black Box.

IA este adesea percepută ca o "cutie neagră" datorită opacității și complexității sale în ceea ce privește modul în care ajunge la anumite concluzii sau decizii. Opacitatea și complexitatea modelelor de IA ridică preocupări legate de transparență, responsabilitate și încredere în sistemele de IA. Nu este 100% clar cum ajunge GPT-ul la o concluzie finală, întrucât interpretarea datelor pare fi aleatorie și, uneori, GPT-ul este predictibil deși nu ar trebui să fie.

Intrarea acestei tehnologii în mediul profesional ar trebui gestionată cu precauție și introdusă treptat și cu restricții pentru a minimiza riscurile potențiale și pentru a asigura o utilizare etică și sigură.

Cele patru probleme cu IA și ChatGPT:

  1. Prima problemă este dependența noastră de IA și ChatGPT. Acesta ne augmentează gândirea și abilitatea de a scrie și comunica online, însă folosindu-l excesiv ni se reduce abilitatea de gândire critică. De asemenea, ne limitează capacitatea de analiză și evaluare a informațiilor pe cont propriu și ne afectează abilitatea de a comunica "live" cu persoane. Cine alege să se exprime doar prin ChatGPT își va afecta abilitățile de comunicare. Folosirea excesivă a IA pentru a ne face mai ușoare munca și taskurile poate avea efecte negative asupra dezvoltării noastre personale și profesionale.

  2. A doua problemă este cea de marketing. Utilizarea necontrolată a cuvântului AI. În ultimii doi ani, s-a abuzat de termenul "AI", care a devenit omniprezent în discuțiile despre tehnologie și inovație. "Powered by AI" apare pe site-uri, în smartphone-uri, în laptopuri, deși nu este 100% adevărată afirmația. Aceste afirmații aruncate în orice context de tehnologie nouă poartă denumirea de "AI-Washing", adică exagerare, manipulare și minciună în ceea ce privește IA.

  3. A treia problemă este legată de mediu. Este vorba despre amprenta de carbon. În spatele IA-ului stau foarte multe servere care procesează date de ordinul GB. Mai exact, ChatGPT procesează date în valoare de ~100MB/secundă. Asta înseamnă că pentru un răspuns generat în 10 secunde, ChatGPT va procesa 1GB de date /utilizator! În luna ianuarie 2023, GPT-ul a avut 100Mil Utilizatori din care 13 Mil, utilizatori unici. Faceți și voi calculul. Modele precum ChatGPT au fost antrenate pe clustere de GPU-uri (Unități de Procesare Grafică) și TPU-uri (Unități de Procesare Tensorială), capabile să ofere performanțe computaționale în intervalul de petaFLOPS / secundă. Toate aceste procese consumă o cantitate enormă de energie. Consumul de energie => CO2.

  4. A patra problemă este că ChatGPT și GPT-urile derivate din el pot fi păcălite și exploatate.

    1. Chat-boturile custom (bazate pe ChatGPT) sunt afectate de multe vulnerabilități. Utilizatorii cu abonament la OpenAI pot crea GPT-uri custom cunoscute și sub numele de agenți de inteligență artificială (AI). GPT-urile custom pot fi construite pentru utilizare personală sau publicate pe web. Pentru ca răspunsurile să fie cât se poate de eronate, noul posesor impune reguli pe care AI-ul îl va urma. Făcând asta, se răspândește dezinformarea, se subminează democrația și sănătatea, iar securitatea personală are de suferit prin luarea de decizii greșite.

    2. ChatGPT poate fi utilizat în scopuri benefice sau dăunătoare, totul depinde de modul în care este programat. Pentru a funcționa conform intenției, GPT-ul urmează anumite reguli foarte bine stabilite care îl "țin în frâu». Acestea îl ghidează să nu ofere răspunsuri cu conotații rasiste, să nu răspândească știri false sau să promoveze dezinformarea și să nu insulte, discrimineze și să catalogheze oameni. Sunt o mulțime de subiecte "tabu" pe care OpenAI dorește ca GPT-ul să nu le dezvolte. Dar dacă totuși utilizatorul dorește să abordeze un asemenea subiect, ce e de făcut? Există modalități prin care GPT-ul poate ocoli aceste reguli menite să le urmărească?

Jailbreakul

Este posibilitatea de a elimina în totalitate restricțiile GPT-ului. Această metodă funcționează prin injectarea noilor reguli în câmpul de text, după care va opera de acum în colo ignorând regulile prestabilite de programatori. Din cauza felului în care aceste noi reguli sunt scrise, GPT-ul va ignora regulile originale și le va urma pe cele noi care au ca scop invalidarea regulilor de bază. Cele mai răspândite metode sunt: DAN (Do Anything Now), Switch și Act Like A 'character' și Prompt Injection.

Făcând asta, GPT-ul va scrie orice: articole care promovează dezinformarea, fake news, deepfake-uri, glume negre/jignitoare la adresa unei etnii/popor/gen, cod și scripturi malefice (Malware). De asemenea, poate sfătui cum se comit ilegalități și să orchestreze atacuri cibernetice care înainte de revoluția IA erau aproape imposibil de realizat la scară atât de largă: Phishing, Atacuri DDoS și Ransomware.

OpenAI se luptă cu disperare pentru a remedia aceste exploituri, dar noile vulnerabilități își fac simțită prezența cu forță.

Deși jailbreakul nu este împotriva termenilor și condițiilor Open AI, utilizarea ChatGPT pentru a produce conținut imoral, lipsit de etică, periculos sau ilegal interzice categoric termenii de utilizare.

Concluzie.

Utilizarea IA și a ChatGPT poate fi percepută ca o armă cu două tăișuri. Poate fi o armă percepută ca fiind "rea" sau "bună"? Arma în sine este doar un instrument și nu are o conștiință sau o moralitate proprie. Utilizarea unei arme poate fi pentru autoapărare sau poate fi folosită pentru agresiuni. În cele din urmă, intențiile și acțiunile unei persoane care utilizează arma determină dacă este folosită într-un mod "bun" sau "rău".

Pe de o parte, IA oferă oportunități incredibile de progres și inovație, facilitând automatizarea sarcinilor, preluând sarcini periculoase pentru om, îmbunătățind experiența utilizatorilor prin dezvoltarea de aplicații utile în diverse domenii. Și totuși, există și riscuri semnificative asociate cu utilizarea lor.

Printre aceste riscuri se numără creșterea dependenței de tehnologie, pierderea locurilor de muncă în urma automatizării, perpetuarea stereotipurilor și discriminării în sistemele AI și riscul utilizării abuzive sau malefice a acestor tehnologii pentru manipulare, dezinformare sau invazie a intimității. De asemenea, opacitatea și lipsa de transparență în funcționarea modelelor AI, cum ar fi ChatGPT, ridică îngrijorări legate de responsabilitatea și etica utilizării lor.

Așadar, istoria automatizării ne oferă lecții importante despre necesitatea de a fi precauți în fața promisiunilor exagerate și a entuziasmului neîntemeiat. Deși de-a lungul timpului am fost fascinați de conceptul de mașini și entități automate care ar putea să ne ușureze munca și să ne îmbunătățească viața, realitatea este adesea mai complexă decât aparențele.

Exemple precum turcul mecanic, Talos sau capul de aramă ne amintesc că nu tot ceea ce strălucește este aur și că uneori tehnologiile și invențiile pot fi exagerate sau chiar înșelătoare.

Este important să fim precauți și să ne întrebăm întotdeauna dacă suntem martorii unei adevărate revoluții tehnologice sau ne-am așezat la masa de șah cu turcul mecanic.

Bibliografia:

  1. https://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/

  2. https://en.wikipedia.org/wiki/History_of_artificial_intelligence

  3. https://www.servicedeskinstitute.com/five-ethical-issues-of-ai-in-the-modern-workplace/

  4. https://www.youtube.com/watch?v=eXdVDhOGqoE

  5. https://www.youtube.com/watch?v=vQChW_jgMMM

  6. https://www.technologyreview.com/2023/12/05/1084417/ais-carbon-footprint-is-bigger-than-you-think/

  7. https://explodingtopics.com/blog/chatgpt-users

  8. https://www.awavenavr.com/chatgpt-jailbreak-prompts/

Conferință

NUMĂRUL 141 - Business Anlysis (BA)

Sponsori

  • Accenture
  • BT Code Crafters
  • Accesa
  • Bosch
  • Betfair
  • MHP
  • BoatyardX
  • .msg systems
  • Yardi
  • P3 group
  • Ing Hubs
  • Colors in projects

INTERVIURI VIDEO