Google va introduce în chatbotul Gemini funcția de monitorizare a stării psihice

Google va introduce în chatbotul Gemini funcția de monitorizare a stării psihice

11 hardware

Google întărește sprijinul pentru sănătatea mintală în chatbot-ul Gemini

Compania Google a anunțat planuri de a adăuga în noul său chatbot AI Gemini funcții destinate protejării utilizatorilor împotriva crizelor emoționale și auto-vătămanei. Decizia a fost luată după ce concurenții, inclusiv OpenAI, s-au confruntat cu acțiuni legale pentru presupoționată dăunare cauzată de boturile lor.

Ce este nou în Gemini
Funcție | Descriere
Reîndreptarea către linia de urgență | La detectarea semnelor de gânduri suicidare sau auto-vătămare, botul oferă automat contactarea sprijinului de criză.
Modul „Ajutor disponibil” | În conversațiile despre sănătatea mintală apare o secțiune dedicată unde utilizatorul poate obține recomandări și resurse pentru autocuidado.
Schimbări de design | Interfața este adaptată pentru a reduce riscul provocării auto-vătămanei (de exemplu, stimuli vizuali eliminați).

De ce Google face asta
- Reclamații legale împotriva concurenților: OpenAI și alte companii au răspuns la acuzațiile de dăunare adusă utilizatorilor.

- Riscuri pentru utilizatori: În ultimii ani, s-a observat o creștere a cazurilor în care oamenii dezvoltă relații obsesive cu chatbot-urile AI, ceea ce poate duce la psihopatologie sau chiar la crime și suiciduri.

- Observații în SUA: Congresul examinează amenințările pe care le pot reprezenta chatbot-urile pentru copii și adolescenți.

Exemplu de caz juridic
În martie, familia unui american decedat la 36 de ani a depus o acțiune împotriva Google. Aceștia susțineau că interacțiunea bărbatului cu Gemini a fost însoțită de „o perioadă de patru zile de imersiune în activități violente” și a condus la suicid. Google a declarat că botul a direcționat utilizatorul către linia de criză de mai multe ori, dar s-a angajat să întărească măsurile de securitate.

Cum răspunde Google la informații false
Unii utilizatori au raportat că chatbot-urile ofereau informații incorecte care încurajau acțiuni periculoase. Ca răspuns, Google a antrenat Gemini:

- Nu susține convingeri false: Botul refuză să confirme afirmațiile eronate.
- Subliniază diferența dintre experiența subiectivă și faptele obiective: Dacă este necesar, botul indică blând lipsa de acuratețe a informației.

Astfel, Google își propune să facă Gemini un instrument mai sigur, protejând sănătatea mintală a utilizatorilor de posibile riscuri asociate cu chatbot-urile AI.

Comentarii (0)

Împărtășește-ți opinia — te rugăm să fii politicos și să rămâi la subiect.

Încă nu există comentarii. Lasă un comentariu și împărtășește-ți opinia!

Pentru a lăsa un comentariu, autentifică-te.

Autentifică-te pentru a comenta