ABONAMENTE VIDEO REDACȚIA
RO
EN
×
▼ LISTĂ EDIȚII ▼
Numărul 82
Abonament PDF

Panel TSM: AI și autonomous driving

Ovidiu Mățan
Fondator @ Today Software Magazine
EVENIMENTE


Acum, am să-i invit pe scenă pe participanții la panel: Bogdan Gliga, Machine Learning Specialist la Telenav, Radu Ivănuș, Head of Business la NTT, dinn zona de Automotive și Cătălin Golban, Group Manager & Video System & Connectivity. În general AI-ul ne ajută să facem taskuri din ce în ce mai dese și mai interesante, de la recunoaștere de poze, la Automotive. Să începem cu Bogdan, spune-ne la ce proiect lucrezi acum!

Bogdan Gliga: Salut! În biroul din Cluj, ne ocupăm, în special, cu partea de automotive. Echipa în care lucrez eu, este implicată în îmbunătățirea hărților pe care le avem pentru produse de navigație, folosindu-ne de mai multe surse, în principal imagini. Analizăm imagini pentru a extrage diferite semne de circulație și anumite elemente, ca mai apoi, să le adăugăm în hărțile pe care le oferim clienților noștri. Dacă ar fi să menționez un proiect, pe care, de curând l-am finalizat, atunci mă voi opri la acela în care am încercat să identificăm pe semnele de circulație, acele panouri mari de pe autostradă, ce este scris acolo, ca mai apoi aceste informații să ajungă în hartă (de exemplu, a ieșit de la stânga, semnul este spre Cluj, urmează la dreapta etc.). Pentru aceasta, am folosit Deep Learning, mai precis, niște arhitecturi specializate pe genul acesta de task. Cu această treabă m-am ocupat eu în ultima lună.

Cum achiziționați imaginile?

Bogdan Gliga: Avem o platformă numită Open City și anume o aplicație, pe care o montezi pe bord ca utilizator, pe telefon, care face poze constant. Cu un lider board ne folosim de imaginile acelea pentru a extrage genul de informații, de care ți-am spus. Așa am reușit să adunăm câteva sute de milioane de poze în toate țările. Ne-am concentrat pe U.S, iar acum am trecut pe Australia și Noua Zeelandă.

Mulțumim! Radu, voi ce faceți în cadrul grupului tău?

Radu Ivănuș: Avem destul de multe proiecte în zona asta..... Legat de zona asta ne folosim de camere pentru recunoașterea fețelor. Există câteva proiecte pe care pot să le menționez destul de general, precum recunoașterea oboselii șoferului în cadrul mașinii, prin intermediul unei camere. Apoi, avem proiecte pe zona de acces în mașină. Vorbim aici de cheie, de securitate, iar mașina trebuie să recunoască șoferul și să îl lase să intre înăuntru. În zona de ADAS? Aici sunt proiecte care vizează radarele, camerele de detecție pentru diferite obiecte și detecție cu așa-numita cameră cu infraroșu pe timp de noapte. Cam acestea sunt, în general, proiectele la care luăm parte, pentru că într-adevăr momentan, Boschul și alți suplieri sunt owneri de proiect. Pe aceste proiecte, lucrăm cam 100 de persoane.

Panelul a avut loc în cadrul lansării numărului 81 / martie TSM la sediul Telenav, Cluj-Napoca

Mulțumesc, Radu! Cătălin, la voi am tot avut lansări, am văzut și mașina care detecta tot felul de forme..

Cătălin Golban: AI-ul apare sub forma în care îl vedeți acum de când a început Deep Learning-ul, adică din 2013. De atunci, AI a devenit popular, dar metode de Inteligență Artificială se folosesc și înainte de acest moment. Tot ceea ce înseamnă partea de procesare de date de la senzori, se face pe bază de metode de Inteligență Artificială cu Deep Learning, lucru care se face de dinainte de 2000.

În prezent, avem două direcții în video processing: o direcție de segmentare semantică, ceea ce înseamnă că având imaginea, la fiecare pixel, avem o plasă semantică din care face parte acel pixel, adică drum, asfalt, marcaje, pietoni, semne de circulație, orice vezi cu ochiul liber în scene de trafic și asta se face cu Deep Learning. Apoi, a doua direcție de detecție: detectare de pietoni, mașini, mai multe frame-uri, operații care se fac apelând la AI.

Ovidiu Mățan: În general, în automotive, cred că folosim Deep Learningul mai mult pentru recunoașterea de obiecte.

Cătălin Golban: Noi facem partea de percepție, adică înțelegerea scenei. În automotive nu se folosește doar în recunoaștere, se folosește și în reasoning și decision making.

Reasoningul va fi individual sau colectiv? Fiecare mașină autonomă va avea propria personalitate sau va fi ceva unitar? Peste 10 ani, mașinile autonome vor merge pe stradă și fiecare va trece printr-o anumită situație din care învață ceva, de exemplu, șoferul apasă frâna, să nu intre într-un zid.

Cătălin Golban: Cert este că dacă acum facem antrenări de rețele neuronale din chestii statice, viitorul este self-learning, adică mașina să învețe dintr-o experiență. De exemplu: ai o scenă în depărtare, te apropii, o vezi de aproape, o înțelegi mai bine și poți să vezi cum ai fi detectat în trecut din ce ai învățat în apropiere. Acum, informația nu rămâne în mașină, adică se antrenează și ce urmează rămâne de văzut. Dar este un scenariu plauzibil în viitor.

Bogdan Gliga: Eu am o întrebare pe care voiam să v-o adresez. Cred că și la Bosch, NTT, locul unde faceți deployment la toate produsele pe care le dezvoltați, de recunoaștere a scenei sau a oboselii, nu ține cont de o anumită țară, se aplică peste tot în lume. O mare problemă care există acum în AI este partea aceasta de bodies? Adică în momentul în care te antrenezi cu un anumit set de date, ai probleme când încerci să faci predicții în alt set foarte diferit de date. De exemplu, dacă antrenezi algoritmul să recunoască rochii de mireasă doar din vestul Europei, când mergi în India ele par a fi ceva foarte diferit, par a fi costum de carnaval, deși din punct de vedere cultural sunt același lucru. Ați întâmpinat probleme, în momentul în care ați încercat să recunoașteți oboseala pe o persoană de culoare sau pe o persoană din India? Ați observat o diferență a calității și a performanței algoritmilor voștri? Pentru recunoașterea facială, mulți algoritmi au problema asta, funcționează mai bine pentru Vestul Europei.

Cătălin Golban: Referitor la driver monitor eu nu știu exact cum se face, dar sigur există metode. Aici poți să-ți imaginezi că ai o rețea neuronală pe regiune și atunci log on nou pe rețele neuronale antrenate anume pe semne de circulație sau pe scene de trafic dintr-o anumită țară sau pe zi/noapte. Variațiuni de genul acesta. Apoi, intervine o altă situație în care ai un set mare de date (avem câteva mii de tera de date), o bună parte adnotate. Atunci când faci un training, cum alegi un set balansat de date de training, ca să nu ai bias? Aceasta e o problemă care are o soluție și anume să poți dinamic să selectezi o cheie, în timpul antrenării. Apoi e important să știi ce date de training folosești ca să ai performanța optimă și nu numai într-o anumită scenă sau zonă de oraș.

Radu Ivănuș: Dacă vorbim despre a învăța o față sau un semn de circulație, există un concept nou pe zona aceasta, de smart highway, smart city care zice: de ce să recunosc semnele de circulație, să folosesc putere mare de calcul de a recunoaște semnul, când aș putea face semnul să zică: da, eu sunt un semn de stop, semn de mers la stânga etc. adică să comunici cu mașinile, cu sistemul și puterea de calcul, de care ai nevoie și pe care o ai acolo să fie mai simplificată. Atunci cu o zonă de smart city și smart highway, probabil unele dintre aceste lucruri se rezolvă, însă în cazul recunoașterii de fețe e altceva. În unele cazuri, se dorește ca și mașina să își recunoască șoferul pentru că tot timpul te înregistrează și atunci de mai multe situații în care ești tu userul mașinii și ar trebui să știe self-learning-ul acesta.

Apropo de comunicare și de date, am participat recent la Mobile World Congress, unde singura chestie nouă era comunicarea 5G, pe care am văzut-o valorificată la diferite echipamente și la tot felul de tehnologii care vor fi folosite în curând. Credeți cumva că autonomous driving va merge mână-n mână cu 5G-ul?

Cătălin Golban: Cu siguranță va merge, dar nu știu în ce măsură se va putea doar cu 5G. Scenariul este foarte fezabil : să ai niște beacon-uri și în funcție de ele, să te localizezi perfect pe zona de autostradă, să n-ai nevoie de senzori, că ai bitconurile și poți să conduci automat. Eu l-aș vedea ca redundanță, nu să te bazezi exclusiv pe chestia aia. Dacă vorbim de nivele de automatizare, level 3 va fi cu senzori în mașină, nu neapărat conectat. Level 4 va fi prima dată urban și cred că se va baza pe 5G ca redundanță, nu ca principala sursă de procesare. Level 5 rămâne de văzut.

Să ne așteptăm să avem autonomous driving, prima dată, în orașe?

Cătălin Golban: Level 3 pe highway și level 4 în orașe, în perimetre foarte bine delimitate.

Bogdan Gliga: Legat de faptul că acum se face un trade off între ce calculezi în mașină și ce calculezi în cloud și tu acum ești blocat de faptul că nu poți trimite date încolo și încoace de la fiecare mașină, pentru că nu ai un astfel de client. Dar în momentul în care ai avea acces la toată puterea de calcul pe care o ai undeva în cloud versus hardul pe care poți să-l pui în mașină, clar ar fi o îmbunătățire a lucrurilor pe care le putem detecta la nivel de percepție.

Cred ca vor fi implicații foarte interesante în momentul în care mașinile autonome, care ar avea 5G peste tot, ar fi mașini teleghidate din cloud.

Bogdan Gliga: Momentan suntem departe de punctul acesta. Chiar recent s-a lansat un serviciu de transport de taxi, aici ne referim inclusiv și la cel de la Google. Ei s-au tot lăudat că vor lansa un taxi full autonomous , pe care îl vei chema de pe aplicație, va veni taxi-ul singur și au zis că în 2018 va fi gata, s-a lansat dar încă există un șofer, un safety driver în caz că e nevoie să se intervină. Până în momentul în care ne jucăm teleghidat din cloud cu mașini fără volan, mai sunt multe obstacole de depășit.

Până la urmă, ai voie să dai drumul la mașină singură? Mă gândesc că nici nu există legislație în momentul acesta.

Cătălin Golban: Legislația există în anumite zone. Când va exista level 3 în anumite zone, se va putea, însă întrebarea este, cine are responsabilitatea în cazul unui accident. De obicei, producătorii auto își asumă responsabilitatea pentru accidente care se întâmplă. Aici trebuie să facem o distincție foarte precisă între level 2, level 3. Level 2 este ceea ce avem acum: mașini care conduc automat, fac depășiri, sistemul este pus la punct, funcționează în 99,99 % din cazuri, dar șoferul e responsabil și deja, tehnologic, e un beneficiu foarte mare. Level 3 implică faptul că șoferul nu răspunde pentru anumite situații. Este o trecere foarte mare și o responsabilitate mare pe care ți-o asumi când pui în producție un astfel de sistem. Una e partea de research, când pot să fac orice prototip, pot să conduc multe mile, cu safety driver sau fără dacă e perimetrul bine delimitat, și alta este să ai level 3 pentru milioane de mașini care se activează sau se dezactivează. În această situație, ca producător răspunzi când sistemul dă erori.

Radu Ivănuș: În ceea ce privește level 3, autonomous driving, versiunea de A8 recentă o are implementată. Dar din ceea ce am citit este o funcție care-i disable, probabil din cauza proceselor care pot să se riște, dacă respectiva mașină nu o să meargă în condițiile optime. Revenind la partea cu 5G, da, acesta este util, avem viteză foarte mare de comunicare, dar problema este de siguranță. Dacă vorbim de level 4 sau level 5, o să necesite o foarte mare putere de calcul și atunci mașina încă trebuie să ia anumite decizii. Dacă vrem să controlăm din cloud, atunci tot ceea ce este în cloud ,trebuie să fie validat din punct de vedere al safety-ului. Vorbim de un standard ISO 26262, de norme, etc.

Cătălin Golban: Vreau să întăresc și eu partea aceasta de safety. Ca developer, trebuie să înțelegi că ai o memorie, pui biți random care trebuie să meargă perfect, nu ai voie să dai greș în nicio situație. Fie că e în cloud, fie că e ISO, tot trebuie să pui mare accent pe partea de safety.

Bogdan Gliga: O chestie mai contextuală, tot legată de zona de safety. Noi vrem ca mașina să nu se lovească de nimic și să nu omoare pe nimeni, dar sunt multe situații în care ai niște cazuri, care sunt din punct de vedere moral questionable. De exemplu, mergi pe stradă, sare cineva în fața ta, pe trecere și atunci ce ar trebui să aleagă mașina: trece peste omul ala și îl omoară sau intră într-un perete și omoară șoferul?

Dacă tot vorbim de Machine Learning și de faptul că încercăm să facem mașinile să semene cu cei care le conduc, până la urmă ar trebui să imite comportamentul uman.

Cătălin Golban: Știu la ce se referă Bogdan și cred că poți să frânezi în cele mai multe situații și atunci nu se întâmplă nimic. Teoretic, ești în oraș, nu ai viteză chiar de 100 km/h și se mai poate evita.

Public: Având în vedere procesarea asta din cloud, se merge mai mult spre assisted driving, nu autonomous driving. Nu credeți că nu e definită mașina autonomă încă? Adică mai e mult de muncă la ea. Și a doua întrebare: toată lumea se ferește acum de certificarea siguranței din diferite motive, dintre care infrastructura din unele țări. Nimeni nu poate certifica că o mașină din Germania va merge la fel în România sau India și atunci se dă vina pe producători

Cătălin Golban: Pot să-ți răspund scurt. Vezi că nu e autonomous driving, ci e automated driving - level 3. Autonomous driving e level 5, de care suntem departe. Legat de partea despre cine-și asumă certificarea de safety pentru level 3, de exemplu, nu e vorba că în unele țări va funcționa și în altele nu. De obicei, sistemul se activează când anumite criterii se îndeplinesc. Când se face designul, criteriile se iau în calcul de la început, în ce condiții active și la început vor fi condițiile de activare mai constrânse.

Noi, de fapt, prin autonomous driving, nu credeți că încercăm să definim șoferul perfect? Am putea avea și în momentul acesta level 4, care ar fi echivalentul unui șofer prost, dar noi căutăm algoritmul perfect, care să nu aibă nicio eroare și asta tinde spre ideal. Cum comentezi, Radu?

Radu Ivănuș: E o întrebare grea. Aș zice că într-adevăr tehnologia există, suntem destul de avansați, dar trebuie să găsim scenariul perfect și în această zonă, mai ales de safety, unde nu este loc de eroare. Cum ziceau și colegii mei, la level 4 deja ești cu o mașină conectată cu cloudul, dar toate scenariile sunt prestabilite, testate și teoretic nu există loc de eroare. Oficial, 2021 este anul în care a fost anunțată ieșirea pe piață a mașinii de producție level 4. Noi le numim safety use cases, orice scenariu care apare în care șoferul sau cei din afara mașinii nu-ți pierd viața. Vă dau un exemplu: există un caz din trecut, pe baza unor module care nu erau apelate în ordinea normală conform manualului, o variabilă era consumată înainte de a fi produsă și stocată în zona de init. Din 70.000 de sample-uri, la 25.000, respective problemă apărea la 2 mașini. O variabilă era verificată cu un anumit pattern și numai la 25.000, patternul respectiv nu coincidea. În cazul de level 4 autonomy, așa ceva nu poate să existe pentru că în acel caz, cineva își va pierde viața. De aceea, producătorii preferă să investească mult timp în testarea echipamentelor pentru a fi cât mai sigure.

Bogdan Gliga: Poate dorința aceasta de a crea șoferul perfect, din punctul meu de vedere, vine din nevoia oamenilor și a societății de a trage pe cineva la răspundere clar în momentul în care ceva se întâmplă. Dacă ar fi să privim în abstract, dacă oamenii ar face 100.000 de accidente pe an versus AI-ul, care ar face 50.000 de accidente pe an, atunci am avea 50.000 de oameni care trăiesc. Poate nu ar fi așa rău. Pentru cei 50.000 care încă mor, într-adevăr o să plătească Tesla niște bani cuiva, dar atât, nimeni nu-i pedepsit.

Public: În legătură cu comunicarea dintre mașini, în cazul în care s-ar întâmpla un incident sau în cazul în care trece ambulanța, cum se poate realiza?

Cătălin Golban: Din punct de vedere al percepției, situațiile acestea trebuie detectate, iar pe baza lor cu siguranță se va lua o decizie de genul: eliberăm banda, deci sunt luate în calcul astfel de scene. Din camere video se poate detecta faptul că există un vehicul cu sirena pornită și se ia decizia ca și cum ar face-o un șofer.

Public: Credeți că evoluția Inteligenței Artificiale și toată procesarea de imagini vor pune bazele robotice acum? Adică partea de autonomous poate fi folosită, mai departe, în crearea de roboți?

Cătălin Golban: La roboții autonomi se aplică aceleași principii, în sensul că ai senzori de percepție. Dar în cazul robotului este mult mai complicată partea de control. Să accelerezi, frânezi, stânga, dreapta este mult mai ușor decât să controlezi o mână robotică.

Fiind în autonomous driving și AI cum vedeți echipele din Cluj versus cele din State? Nivelul la care lucrăm aici e comparabil cu ce se întâmplă dincolo sau mai trebuie să treacă un pic de timp ca să ajungem la nivelul lor?

Cătălin Golban: Cred că stăm destul de bine. E o chestie nouă și vedem lume foarte motivată să intre în domeniu. Avem cursuri de AI, de fapt de autonomous driving dar lumea vine pentru Inteligență Artificială. Am avut la UTCN pentru anul IV, avem la UBB pentru master. Câteodată așteptările sunt oarecum wow, AI, magie și după ce vezi, de fapt, ce presupune, îți dai seama că e software development și puțină algoritmică și modelare matematică în spate. Deci, cred că n-avem niciun motiv să nu fim chiar peste ce vedem în străinătate și uneori au chiar de învățat de la noi. Stăm foarte bine cu bazele teoretice, pe care apoi cu practică, poate, reușim ca locație, ca oraș să fim pe harta AI a lumii.

Radu Ivănuș: Și eu sunt de aceeași părere că suntem cel puțin la fel, dacă nu mai buni decât cei din afara țării.

Bogdan Gliga: Sunt complet de acord. Singura chestie pe care pot să o adaug e că din ce observ, cel puțin în Cluj, se lucrează foarte mult, la multe firme, pe AI, în special în zona de image processing , care e preponderent mai mare decât NLP sau decât robotică. E un curs normal. Cred că pasul următor ar fi să încercăm să ne diversificăm expertiza pe care noi o avem.

Bun. Vorbeam despre educație și aș vrea să ne spui, Cătălin, ce face Bosch pentru educație .

Cătălin Golban: Am zis de cursuri, care țin de AI. Pot să zic de Bosch Future Mobility Challenge, Bosch Future Mobility Day. De asemenea, avem niște mașinuțe pe care le dăm unor echipe de studenți și un coprocesor de AI pentru percepție și control. Apoi, acestea vor concura în 19 mai în cadrul unui eveniment. Au un track la scala 1:100 în centrul Clujului și vor concura pe acel track. Anul trecut a fost prima ediție a acestui concurs, iar anul acesta ne așteptăm să iasă și mai bine datorită experienței acumulate, atât a mentorilor, cât și a studenților.

Radu Ivănuș: Participăm și noi cu studenții la diferite concursuri precum cele organizate de colegii de la Bosch și Continental. Avem o serie de academii pe care le facem intern și prin care încercăm să formăm tineri și colegi din ultimii ani de facultate, pe anumite tehnologii de care este nevoie pe piață. Bineînțeles, avem și colegi care predau la facultate și profesori care predau în cadrul cursurilor și academiilor organizate de noi, nu numai în Cluj, ci și în Sibiu, Timișoara, Iași, București. Suntem prezenți în toate centrele universitare și avem diferite parteneriate cu facultățile.

Bogdan Gliga: Tot în zona aceasta, menționăm parteneriate cu facultățile.

Mulțumim mult pentru prezența de astăzi.

LANSAREA NUMĂRULUI 83, Târgu-Mureș

Prezentări articole și
Panel: Connected Products

Joi, 30 Mai, ora 17:00
Hotel Plaza, Târgu-Mureș

Înregistrează-te

Facebook Meetup

Conferință

Sponsori

  • ntt data
  • 3PillarGlobal
  • Betfair
  • Telenav
  • Accenture
  • Siemens
  • Bosch
  • FlowTraders
  • MHP
  • Connatix
  • UIPatj
  • MetroSystems
  • Globant
  • MicroFocus
  • Colors in projects