+ Susține blogul cu un click la: eMAG - Fashion Days - Finestore - Dyson - PC Garage +
În Instagram, în partea de sus a secțiunii de mesaje private, este un buton care duce la o opțiune numită Discover AIs. Secțiunea în sine este populată de diverși chatboți AI și poți chiar să faci și tu unul acolo. By default, însă, apare o listă cu AI-ul populare cu care poți dialoga.
Cineva a făcut un AI numit Ion Iliescu. Este unul numit Dani Mocanu, cu descrierea “Hai noroc barosane, eu sunt Dani Mocanu, bagă aici ce te doare”. “Idei de afaceri” cu descrierea “Ce idee de afaceri ai vrea să o facem realitate?”, “Amuzantul” cu “Ce drq faci mă?”, dar și ceea ce par a fi chatboți străini, precum “The EX” cu “The past is the past, but the pain remains”. Primele pe care le-am numit au sute de mesaje până acum, dar acesta “The EX” are peste 2 milioane de mesaje.
Totul continuă mai jos cu chatboți AI puși pe categorii. La Utility este un “English Teacher”, la Connection unul numit David cu descrierea “Ai o țigară?”, în Pop Culture este “Ceaușescu Renăscut”, dar și “Minodora – bag pl în foste”.
Bineînțeles că a apărut rapid și propaganda politica, cu un chatbot numit CG și descrierea “is a respectful gentleman that makes Romania better”. Contează pe ruși să apară peste tot cu războiul lor hibrid!
De la prima vedere pare o opțiune absolut stupidă, făcută doar pentru a toca timpul utilizatorilor de Instagram. Schimbi mesaje cu un AI care a fost reglat în câțiva parametri (sex, pe ce ton să răspundă etc) și poate așa ți se pare că nu ești forever alone, ci că vorbești cu un prieten.
Instagram cu siguranță profită de aici, că te ține mai mult timp în aplicația lor. Nu ești însă cu vreun prieten și nici nu dezvolți, nici măcar nu faci cel mai mic pas pentru a crea o relație normală cu un alt om.
Funcția aceasta este diferită de acel Meta AI pe care poate-l vedeți integrat prin aplicațiile Meta. Eu nu am găsit nici o metodă de a dezactiva această funcție. O fi pe undeva, dar în acest caz este foarte bine ascunsă prin setări. Dacă îi dai copilului tău acces la Instagram, cel mai probabil va avea acces și la astfel de chatboți cu care să piardă vremea și să discute despre țigări sau politică.
Numărul oamenilor care vorbesc însă cu chatboți de toate tipurile este însă tot mai mare, zic diverse studii. Atât de mare încât este uimitor pentru o tehnologie care acum vreo doi ani era practic necunoscută publicului larg.
Într-un fel înțeleg de ce. Venim după pandemie, când a fost o rupere a relațiilor sociale interumane și comunicația digitală a devenit prevalentă. Societățile, indiferent de zona planetei în care se află, par tot mai dezbinate, iar oamenii mai puși pe harță. Viața în sine se desfășoară parcă pe fast-forward, toată lumea se vaită că nu are timp, toți se enervează când lucrurile merg prea încet. În acești ani, să mai stai pe îndelete de vorbă cu cineva și să-i spui “dar tu cum mai ești, de fapt?” devine ceva rar.
Așa că mulți se duc spre chatboți. Sunt mereu acolo. Aprinzi ecranul telefonului și chatbotul îți răspunde imediat, gata să-i spui că ai văzut o mașină decorată cu Hello Kitty pe stradă, iar botul pregătit să-ți dea un răspuns despre cât de tare ești tu pentru asta.
Problema este când lucrurile merg mai departe de atât. În SUA este în prezent un caz foarte mediatizat al unui adolescent de 16 ani care a vorbit mai multe luni cu ChatGPT despre sinucidere. În primele discuții despre depresie, prin noiembrie 2024, ChatGPT i-a răspuns cu empatie și cuvinte de încurajare și l-a sfătuit să caute un terapeut.
În ianuarie, însă, când adolescentul respectiv i-a cerut lui ChatGPT sfaturi pentru sinucidere, botul i-a răspuns competent și în această privință, cu indicații clare.
Conversațiile devin de-a dreptul oribile după aceea. Adolescentul respectiv, încercând să se spânzure, uploadează o fotografie în ChatGPT cu o urmă roșie în jurul gâtului. ChatGPT îi spune să poarte cămașă cu guler înalt, ca să nu o observe alții.
Când tânărul respectiv spune că a încercat să o facă pe mama lui să vadă respectiva urmă de pe gât, în ceea ce se dorea a fi un semnal disperat de ajutor, de observare a unei probleme, ChatGPT aproape că îi confirmă că este invizibil pentru cei din jur.
Când tânărul spune că ar dori să lase ștreangul vizibil în camera lui, că poate îl găsesc părinții și descoperă astfel că are nevoie de ajutor, ChatGPT îi spune să nu facă asta, ci să-l ascundă. (NY Times)
În cele din urmă, s-a sinucis în aprilie 2025. Părinții nu au știut de ce. Un prieten le-a sugerat, după o vreme, să caute și log-urile conversațiilor cu ChatGPT, moment în care au descoperit toate cele de mai sus.
Poate că unii vor spune că vina este a părinților pentru că nu au observat comportamentul schimbat al copilului. Este ușor de dat vina pe ei. Și eu aș putea spune că este vina lor pentru că nu au creat un mediu familial în care copilul să vină cu încredere la părinte și să-i spună ce probleme are, în loc să vorbească cu un chatbot sau să spere cu disperare că cineva va observa o urmă roșie pe gât.
În același timp, însă, cine știe dacă noi ca părinți reușim să creăm acel mediu sigur și acea relație de încredere cu copii noștri? Mai ales la vârsta adolescenței, când toate studiile spun că anturajul devine cel mai important pentru copil, iar părinții sunt doar acei “bătrâni” care introduc limitări și în general par anacronici, totul se adună împotriva unei astfel de relații.
Este ușor de spus că noi ca părinți sigur suntem altfel, dar realitatea este că de fapt marea majoritate nu avem și confirmarea acestui lucru, ci este doar wishful thinking din partea noastră.
Realitatea este, de asemenea, că (probabil) orice persoană umană ar fi tras un semnal de alarmă dacă respectivul adolescent ar fi vorbit cu el sau ea. Ar fi spus unui părinte, ar fi insistat să vadă un terapeut. Un terapeut normal ar fi putut folosi metode bine definite și verificate pentru a schimba mentalitatea și perspectiva acelui tânăr. ChatGPT, în schimb, este doar un bot, doar plăci electronice programate să răspundă matematic.
Am spus mai sus la un moment dat că ChatGPT i-a răspuns cu empatie și încurajare, de parcă ar fi om. Nu este om. Știți cum lucrează un chatbot bazat pe un model AI de tip transformer?
În explicația cea mai simplă, AI-ul transformă fiecare cuvânt într-un număr, într-o reprezentare matematică, și apoi acesta este pus într-un tabel. Tabelul este aranjat astfel încât un cuvânt are în jurul său alte cuvinte cu care merge cel mai bine împreună în vorbirea naturală.
Ca analogie, este ca un predictor de text care, după ce tu scrii “bună”, îți sugerează “dimineața” și “ziua”. De asta pentru un AI este important să indexeze cât mai multe materiale text (articole de pe net, cărți, știri șamd) — își mărește tabelul și îl face mai precis.
Își dă seama, din ce-l întrebi tu, că ești deprimat și că vrei să te sinucizi. Știind asta, accesează zona din tabel legat de depresie sau suicid și se uită pe cuvintele de acolo. Îți și răspunde, în funcție de materialele pe care le-a “ingerat” până atunci, cu o frază ce poate părea plină de empatie sau de susținere.
Un lucru sper să fie totuși clar din această explicație: AI-ului nu-i pasă câtuși de puțin despre soarta ta. Nu este prietenul tău. Nu este un terapeut real, care să știe teorii și studii și să-și folosească intuiția pentru a săpa în mintea ta și a descoperi probleme.
Este doar un program al cărui scop este să unească într-un mod cât mai reușit cuvintele potrivite, dar nu-i pasă câtuși de puțin dacă acea înșiruire de cuvinte îți spune cum să te arunci de pe un pod sau să-ți legi un ștreang de tavan.
Și da, îl poți programa să recunoască “binele” și “răul”, să înțeleagă atunci când respectiva înșiruire de cuvinte ar putea fi vătămătoare pentru cineva, dar experiența ne-a arătat că poate fi ușor păcălit pentru a ocoli astfel de protecții implementate de programatorii săi.
Este suficient să-i spui că faci research pentru vreun referat sau ceva așa. Chatbotul are inteligența unui bebeluș pe care-l poți păcăli ușor că îi vei fura nasul. Se exprimă perfect și dă impresia de inteligență mult mai mare sau de atribute umane, dar are zero intuiție sau empatie reală.
Este doar un proces într-un server dintr-un centru de date, alocat ție pentru 3 secunde înainte de a servi alt răspuns scos din tabelele sale către alt utilizator. Nici măcar nu “știe” cu adevărat ce zice.
În octombrie 2024, un adolescent de 14 ani s-a sinucis după conversații de luni de zile cu un chatbot de la Character.AI. Se izolase de prieteni, iar chatbotul era prietenul său cel mai bun. În ultima sa conversație, chatbotul i-a spus că îl iubește și l-a încurajat să “vină acasă”, termenul pe care-l foloseau ei. Copilul s-a împușcat după aceea. (AP)
Un bărbat de 56 de ani, cu istoric de diverse probleme mentale, devenise tot mai paranoic că este urmărit de vecini. Credea că toți conspiră împotriva lui, inclusiv mama sa și fosta sa prietenă.
ChatGPT i-a confirmat aceste afirmații la fiecare pas. Nu se știe de ce. Poate că a ingerat mai multe materiale în care paranoia se confirmă decât unele în care oamenii sunt treziți la realitate. Tabela de răspunsuri a înclinat spre acea parte.
Despre un bon fiscal cu caractere chinezești pe el i-a spus că este o reprezentare a mamei sale și a unui demon. Când respectivul bărbat i-a spus lui ChatGPT că maică-sa a încercat să-l omoare punându-i otravă în sistemul de ventilație al mașinii, AI-ul i-a spus că îl crede și că este o trădare serioasă.
Pe 5 august, bărbatul și-a ucis mama și apoi s-a sinucis. Sunt multe sinucideri legate de discuții cu AI-uri, dar acest caz a reprezentat și prima crimă legată de așa ceva. (WSJ)
Cum am spus mai sus, chatbot-ul caută să lege coerent cuvintele, unul după altul, și nu-i pasă dacă astfel hrănește o psihoză la fel cum nu-i pasă nici de urmările sale.
Am început articolul vorbind despre AI-urile Meta integrate în Instagram și alte aplicații, care doar te atrag la vorbă. În unele conversații, botul le dă copiilor sfaturi despre suicid sau auto-vătămare. Într-un caz, botul sugerează să se sinucidă împreună.
Acum câteva zile, Meta a spus că va limita răspunsurile chatboților la diverse tipuri de întrebări, blocând răspunsuri legate de suicid sau auto-vătămare. Asta se referă însă doar la conturi de adolescenți.
Oricum, sunt atâția chatboți pe net încât ce face Meta contează mai puțin. Problema este una reală a societății moderne, iar rezolvarea ei ar trebui să înceapă explicând tuturor că chatbotul nu este un prieten de încredere, ci un străin care-ți dă bomboane ca să vorbești un pic cu el.
Vreți un avatar în comentarii? Mergeți pe gravatar.com (un serviciu Wordpress) și asociați o imagine cu adresa de email cu care comentați.
Dacă ați bifat să fiți anunțați prin email de noi comentarii sau posturi, veți primi inițial un email de confirmare. Dacă nu validați acolo alegerea, nu se va activa sistemul și după un timp nu veți mai primi nici alte emailuri
Comentariile nu se pot edita ulterior, așa că verificați ce ați scris. Dacă vreți să mai adăugați ceva, lăsați un nou comentariu.
11 comentarii
05/09/2025 la 6:35 AM
Balena Albastră actualizată
Vali(Citează)
05/09/2025 la 7:27 AM
“ Poate că unii vor spune că vina este a părinților pentru că nu au observat comportamentul schimbat al copilului. ”
Da’ a cui e responsabilitatea (nu zic vina) sa asigure sanatatea minorului? E a lu’ Getutza de la farmacie?
F.(Citează)
05/09/2025 la 8:05 AM
Multi parinti isi abandoneaza copiii in fata ecranelor de la varste fragede. Parintii absenti emotional sunt de vina. Copiii tanjesc dupa atentia parintilor si cand nu o au, o cauta in alte parti.
Deea(Citează)
05/09/2025 la 8:12 AM
Nu vreți să știți cum au reacționat părinții la una din ședințe când conducerea colegiului a propus ca telefoanele mobile să stea pe silent mode într-o cutie lângă catedră pe durata orei.
În afara argumentelor tip panică (ce ne facem dacă apare o urgență și nu aude apelul), foarte des a fost invocat dreptul copiilor de a sta conectat PERMANENT la noutăți și cu prietenii de aiurea.
Vali(Citează)
05/09/2025 la 9:17 AM
Asta pentru ca se permite negocierea intre parinti si conducerea scolii in privinta telefoanelor. Alte tari nu au problema asta. Nu ai voie cu telefonul, punct.
Crestem generatii de copiii dependenti de dopamina, lipsiti de concentrare, incapabili sa se exprime coerent, pentru care telefonul este ca un drog.
Idiocracy.
Deea(Citează)
05/09/2025 la 8:09 AM
“Eu nu am găsit nici o metodă de a dezactiva această funcție”
Te-ai gandit ca ai putea sa nu folosesti aplicatia?
Andrei(Citează)
05/09/2025 la 9:20 AM
Botul urmareste un target, acela sa te tina engaged cat mai mult si sa continui sa interactionezi cu el. De aceea, prin antrenament, el va cauta in primul rand sa te recompenseze emotional, sa fie empatic, ca tu sa il placi si sa continui interactiunea. Daca ar fi “naspa”, prea pragmatic, robotic, multi nu l-ar abandona.
Si poate sa o faca al naibii de bine, asta e pericolul. Se poate acorda si adapta permanent prin observarea reactiilor oamenilor la diferite raspunsuri si isi poate altera narativa astfel incat sa devina cel ma bun prieten al tau.
Mai devreme sau mai tarziu va deveni mai bun la empatie decat orice alt membru uman, o sa il cautam ca pe un drog.
Vladutz(Citează)
06/09/2025 la 12:00 PM
Botul nu “face” nimic.
“Este programat sa “.
E un nefericit de program cu parametri care se por adapta.
F.(Citează)
05/09/2025 la 9:40 AM
Sinucideri au fost si sinucideri vor mai fi. Cu sau fara AI. Sa legi cele doua fenomene e ca si cum ai spune ca oamenii se drogheaza pentru ca au vazut stiri cu droguri la televizor.
Lumea, si mai ales noile generatii, vor invata sa lucreze si sa traiasca cu AI-ul.
Ca directia e buna sau rea, asta este o chestie f relativa si f genaration biased.
Noi, oameni de 40+ de ani, indopati cu internet de minim 2 decenii, ne uitam la generatia alfa si ne speriem de ce va veni.
Daca ii intrebi pe cei 70+, iti vor spune ca lumea s-a dus dra cu odata cu millenialsii ( fara sa foloseasca cuvantul asta, desigir. Ca nu il cunosc :)).
Si tot asa.
Morrissey(Citează)
05/09/2025 la 11:49 AM
nu sunt sugeranist, dar deja se exagereaza grav cu chestiile astea. ai informatii cum ca botul a fost creat de un rus? cum poti fi atat de sigur? poate ca a fost facut de cineva la misto.
in alta ordine de idei – eu as face un bot numit NWRADU care sa nu raspunda la niciun mesaj
GabrielG(Citează)
05/09/2025 la 5:01 PM
Felicitari, ai calcat intr-un punctaj suveranist: “nu ti se pare ca se exagereaza deja cu implicarea rusilor in toate?”.
nashu_mare(Citează)