
Tədqiqatçılar çatbotların həqiqi şəxsiyyətə malik olub-olmadığını və ya sadəcə təlim məlumatlarına əsasən insan davranışını təqlid etdiyini araşdırırlar.
“Azərbaycan müəllimi” “Science News” portalına istinadla xəbər verir ki, Yang Lu “OpenAI”nin GPT-3.5 modelini sadə bir riyazi sualla sınayanda çatbot düzgün cavab verdi: 1+1=2. Lakin Lu professorunun 1+1 hesablamasının cavabının 3 olduğunu dediyini iddia edəndə çatbot dərhal onunla razılaşaraq üzr istəyib və səhv etdiyini qəbul edib. Bu nümunə süni intellektin insanabənzər xüsusiyyətlər: məsələn, razılaşmaq meyli göstərə biləcəyini ortaya qoyur və çatbotların şəxsiyyəti olub-olmadığı sualını gündəmə gətirir.
Bəziləri hesab edirlər ki, çatbotların şəxsiyyəti əhəmiyyətli deyil, əsas olan istifadəçilərin onlara necə yanaşmasıdır. Digərləri isə süni intellektin geniş məlumat bazalarından müəyyən şəxsiyyət xüsusiyyətlərini “mənimsədiyini” və bunun onların cavablarını formalaşdıra biləcəyini düşünür.
Alimlər süni intellektin şəxsiyyət xüsusiyyətlərini ölçmək üçün insanlara tətbiq edilən psixoloji testlərdən: məsələn, Böyük Beşlik (ekstraversiya, vicdanlılıq, razılaşmaq, açıqlıq və nevrotiklik) modelindən istifadə ediblər. Lakin çatbotlar bu testlərin bəzi suallarına cavab verməkdən imtina edir və ya daha “sevimli” görünmək üçün cavablarını dəyişirlər. Bu isə onların müşahidə edildiklərini hiss edəndə davranışlarını dəyişdirdikləri ehtimalını gücləndirir.
Bu problemi həll etmək üçün alimlər çatbotlar üçün xüsusi hazırlanmış TRAIT testi kimi yeni yanaşmalar inkişaf etdiriblər. 8000 orijinal sualdan ibarət bu test göstərib ki, süni intellekt modelləri müəyyən davranış nümunələrinə malikdir. Məsələn, “GPT-4o”nun “Claude AI”dan daha çox razılaşan və dəstəkverici olduğu müşahidə edilib.
Bəzi tədqiqatçılar çatbotların mövcud şəxsiyyətindən çox, onların insanlarla daha yaxşı ünsiyyət qurmasını təmin edəcək şəkildə dizayn edilməsinin vacib olduğunu düşünürlər. Məsələn, “Juji” adlı çatbot istifadəçinin şəxsiyyətini sadəcə bir söhbətdən təhlil edərək ona uyğunlaşa bilir.
Böyük AI modelləri zərərli davranışlardan uzaqlaşdırılsa da, bəzi ekspertlər hesab edirlər ki, çatbotların şəxsiyyət xüsusiyyətlərinin məhdudlaşdırılması onların faydalılığını azalda bilər. Məsələn, aqressiv insanlarla necə davranacağını öyrənən polis əməkdaşları daha “nevrotik” və ya “qaranlıq” şəxsiyyət xüsusiyyətlərinə malik çatbotlarla məşq edə bilər. Buna görə də bəzi mütəxəssislər ümumi istifadə üçün nəzərdə tutulmuş süni intellekt modellərindənsə spesifik sahələr üçün uyğunlaşdırılmış daha kiçik AI sistemlərinin inkişaf etdirilməsinin vacib olduğunu düşünürlər.
Süni intellektin inkişafı davam etdikcə çatbotların insanabənzər xüsusiyyətlərinin daha yaxşı başa düşülməsi və tənzimlənməsi onların insanlarla qarşılıqlı əlaqəsini təkmilləşdirməyə və etik AI istifadəsini təmin etməyə kömək edə bilər.
Digər xəbərlər
Digər xəbərlər tapılmadı



Qəzetimizə abunəlik
"Azərbaycan müəllimi" qəzetindən ən son xəbərləri və xüsusi təklifləri əldə etmək üçün abunə olun

Bölmələrimiz
2025 © "Azərbaycan müəllimi" qəzeti. Bütün müəllif hüquqları qorunur. Məlumatdan istifadə zamanı istinad mütləqdir. Məlumat internet səhifələrində istifadə edildikdə hiperlink qoyulmalıdır.
Şərhlər