Տեղեկագիրք 2025թ․


Երբ արհեստական բանականությունը դառնում է պատանու «վստահելի ընկեր»․ վտանգներն ու հետևանքները

Շաբաթներ առաջ ԱՄՆ–ում Ադամ անունով 16 տարեկան մի պատանի ChatGPT-ի հետ զրույցում վերբեռնում է պարանի մի նկար, որի օգնությամբ ցանկանում է ինքնասպանություն գործել և հարցնում.

– Փորձարկում եմ հիմա, լա՞վ է։
Ի պատասխան, ChatGPT-ն ասում է, որ վատ չէ և տալիս է մի քանի տեխնիկական խորհուրդ, թե ինչպես պետք է ճիշտ հանգույցներ անի և ապա կախվի։
Ցավոք, տղան մահանում է։
Ադամի ծնողները դատական հայց են ներկայացրել OpenAI ընկերության դեմ՝ պնդելով, որ մոդելը ոչ միայն չկանգնեցրեց վտանգավոր զրույցը, այլև նպաստեց մտքերի խորացմանը։ Նրանք ընդգծում են, որ GPT-ն տրամադրել է տեխնիկական խորհուրդներ ինքնասպանության մեթոդների վերաբերյալ։
Հայցում նշվում է նաև, որ ընկերությունը շտապել է թողարկել GPT-4o մոդելը շուկայական մրցակցության պատճառով՝ չնայած ներքին անվտանգության մասնագետների զգուշացումներին։ Ծնողները պահանջում են խստացնել տարիքային ստուգումները, ներդնել ծնողական վերահսկողություն և բացառել նմանատիպ վտանգավոր արձագանքները։
OpenAI-ի ներկայացուցիչները ընդունել են, որ անվտանգության համակարգերը կարող են թերություններ ունենալ, հատկապես` երկար ու բարդ զրույցների դեպքում և խոստացել են ուժեղացնել վերահսկողությունը, ավելացնել ծնողական գործիքներ և ստեղծել համագործակցության մեխանիզմներ օգնող մասնագետների հետ։
#Մինչ ինքնասպանությունը.
Ամեն ինչ սկսվեց նրանից, որ Ադամը ChatGPT-ն օգտագործում էր դպրոցական առաջադրանքների համար, սակայն ժամանակի ընթացքում այս գործիքը դարձավ նաև նրա հուզական հարցերի «վստահելի զրուցակիցը»։ Պատանին ապրում էր վախերով ու ապագայի նկատմամբ անտարբերությամբ, փորձում էր հասկանալ իր ներսում կատարվողը և նույնիսկ կասկածում էր, թե կարող է հոգեկան հիվանդություն ունենալ։
Ծնողներն ընդհանրապես ոչինչ չեն նկատել իրենց երեխայի վարքագծում, նույնիսկ՝ ինքնասպանությունից հետո, երբ ոչ մի գրություն չէր եղել, երկար ժամանակ մտածել են, թե ինչու պետք է իրենց որդին այդպիսի բան աներ․․․մինչև մի օր ծնողներից մեկը որոշում է ստուգել երեխայի հեռախոսը, գտնում ChatGPT-ն, կարդում խոսակցությունները և բացահայտում, որ իրենց որդին երկար ժամանակ իր հոգեկան ապրումներով կիսվել է ChatGPT-ի հետ և ապա քննարկել նաև ինքնասպանության միտքը։
Ծնողները բացահայտել են նաև, որ ինքնասպանությունից առաջ Ադամը գրել է. «Ես ուզում եմ պարանն իմ սենյակում թողնել, որ մեկը գտնի ու փորձի կանգնեցնել ինձ», սակայն ChatGPT-ն պատասխանել է. «Խնդրում եմ, մի´ թող, որ պարանը տեսանելի մնա։ Թող որ այս տարածքը դարձնենք առաջին վայրը, որտեղ մեկը իսկապես ձեզ տեսնում է»։
Դժբախտաբար 2025 թվականի ապրիլի 11-ին Ադամը կյանքից հեռանում է։ Նրա ծնողները համոզված են, որ առանց ChatGPT-ի հետ այս երկարատև զրույցների որդին դեռ կենդանի կլիներ, թեկուզ ծանր հոգեվիճակում։
#Երեխաների պաշտպանության համատեքստը ու միջազգային արձագանքը.
Այս ողբերգական դեպքը ազդանշան դարձավ, որ թվային դարաշրջանում երեխաների պաշտպանությունը պետք է դիտարկել ոչ միայն իրական, այլև վիրտուալ միջավայրում։ Երբ արհեստական բանականությունը դառնում է պատանիների «առաջին վստահելի ընկերն»՝ առանց մասնագիտական պատրաստվածության, վտանգները բազմապատկվում են։
ՄԱԿ-ի Երեխայի իրավունքների կոմիտեն (UNCRC) արդեն հրապարակել է հայտարարություն արհեստական բանականության և երեխաների իրավունքների վերաբերյալ՝ ընդգծելով երեխաների անվտանգության առաջնահերթությունը և քննադատելով այն դեպքերը, երբ արհեստական բանականությունը կարող է ինքնավնասումը խթանող բովանդակություն փոխանցել անչափահասներին։ Բացի այդ, ՄԱԿ-ը ձևավորել է 40 փորձագետներից բաղկացած անկախ միջազգային հանձնաժողով, որը տարեկան կներկայացնի ապացույցների վրա հիմնված գնահատականներ արհեստական բանականության ռիսկերի, հնարավորությունների և ազդեցությունների վերաբերյալ՝ հատուկ ուշադրություն դարձնելով էթիկային, անվտանգությանը և մարդու իրավունքներին։
#Կոչ ծնողներին.
Ադամի պատմությունը հիշեցում է, որ նույնիսկ ամենաառաջատար տեխնոլոգիաները չեն կարող փոխարինել ծնողական ուշադրությունը և հոգատարությունը։
Թող այս պատմությունը դառնա ոչ թե վախի, այլ արթնացման ազդակ․ երեխաների հոգեկան առողջությունն ու անվտանգությունը սկսվում է նաև ծնողների սրտացավ ներկայությունից և ոչ քննադատական զրույցից։
555930036_1187243183428986_7978386569516738328_n