Süni intellekt lazımi qaydada öyrədilməli və bütün lazımi təhlükəsizlik tədbirləri görülməlidir.
Facemark.az xarici mənbəyə istinadən xəbər verir ki, insanların narahatlığından xəbərdar olan OpenAI, görülən təhlükəsizlik tədbirlərini ətraflı şəkildə paylaşıb.

Süni intellekt günümüzün vazkeçilməz texnologiyalarından birinə çevrilsə də, xüsusən də son zamanlar çoxumuzda hələ də bəzi sual işarələri var. Hələlik, insan həyatını bu qədər asanlaşdıran texnologiyanın gələcəkdə ayağımızı tərpətməyəcəyi ilə bağlı dəqiq bir şey söyləmək mümkün deyil. Ancaq zəif təlim keçmiş süni intellekt bəzən dəhşətli ola bilər.


OpenAI -nin təhlükəsizliyə yanaşmasını izah etməzdən əvvəl , süni intellektin təhlükəsizliyi və süni intellektdə etikanın nə üçün vacib olduğunu bir nümunə ilə izah etmək istərdim. Səhər bir xəbər məqaləsinə rast gəldim, xəbər o idi ki, ChatGPT əsl hüquq professorunu əslində baş verməyən təcavüz xəbəri ilə ittiham etmişdi. USA Today- də öz təcrübəsi haqqında danışan Corc Vaşinqton Universitetinin hüquq professoru Conatan Turli başa düşdü ki, ChatGPT hər kəsə cinsi istismar edən vəkillərlə bağlı araşdırma layihəsinin bir hissəsi olaraq onun adını çəkib.


Professor yazıb ki, ChatGPT-də professorlar tərəfindən cinsi təcavüzlə bağlı araşdırma aparan dostundan maraqlı elektron məktub alıb. Turley, "ChatGPT, 2018 Washington Post məqaləsində Alyaska səfərində hüquq tələbələrinə təcavüz etdikdən sonra cinsi təcavüzdə günahlandırıldığımı söylədi" dedi. dedi. Amma o, əslində tələbələrlə heç vaxt Alyaskaya getməyib və The Post belə bir məqalə dərc etməyib. Düşünürəm ki, hamımız bunun nə qədər dəhşətli olduğunu anlaya bilərik. Odur ki, süni intellekt çox dəqiq şəkildə öyrədilməli və bütün lazımi təhlükəsizlik tədbirləri görülməlidir. Təbii ki, OpenAI də bunun fərqindədir və bu çərçivədə görülən təhlükəsizlik tədbirlərini ətraflı şəkildə paylaşdı .


OpenAI komandası güclü AI-ni təhlükəsiz və ümumiyyətlə faydalı saxlamağa sadiqdir; O, bütün səviyyələrdə təhlükəsizliyin sistemə daxil olmasını təmin etmək üçün çalışdıqlarını söylədi.


Uzun müddətli sınaq prosesləri və hökumətlərlə əməkdaşlıq

Səhmlərə görə, şirkət hər hansı yeni sistemi buraxmazdan əvvəl ciddi sınaqlardan keçir və rəy üçün kənar ekspertlərlə işləyir. İnsan rəyi ilə möhkəmləndirmə öyrənmə kimi üsullar vasitəsilə modelin davranışını yaxşılaşdırmaq üçün çalışan OpenAI geniş təhlükəsizlik və monitorinq sistemləri yaradır. Şirkət bildirir ki, ən son model GPT-4-ün təlimini başa vurduqdan sonra onu ümumi istifadəyə verməzdən əvvəl onu daha təhlükəsiz və daha uyğun etmək üçün təşkilat daxilində 6 aydan çox çalışıb. Güclü süni intellekt sistemlərinin ciddi təhlükəsizlik yoxlamalarına məruz qalması lazım olduğuna inanan OpenAI, bu cür tətbiqlərin qəbulunu təşviq etmək üçün tənzimləmənin lazım olduğunu deyir və bu cür tənzimləmənin ala biləcəyi ən yaxşı formada hökumətlərlə fəal şəkildə əlaqə saxlayır.


İnsanların texnologiyadan hansı məqsədlə istifadə edəcəyini anlamaq asan deyil.

Gözlənilən riskləri nəzərə almağa çalışan şirkət deyir ki, laboratoriyada öyrənilənlərin həddi var və geniş araşdırma və sınaqlara baxmayaraq, insanların texnologiyadan istifadə edəcəkləri bütün faydalı və zərərli yolları proqnozlaşdıra bilmirlər. Necə ki, yuxarıdakı misalda olduğu kimi, çünki bu cür məlumatlar bəd niyyətli insanların əlində bir insanın həyatının sonunu belə gətirə bilər.


Buna görə də şirkət diqqətli və tədricən yeni süni intellekt sistemlərini əsas təhlükəsizlik tədbirləri ilə daim genişlənən insanlar qrupuna təqdim edir və öyrəndiyimiz dərslər əsasında davamlı təkmilləşdirmələr aparır.


OpenAI ən bacarıqlı modellərini öz xidmətləri və API vasitəsilə əlçatan edir ki, tərtibatçılar bu texnologiyanı birbaşa öz proqramlarına daxil edə bilsinlər. Bu, bizə sui-istifadə hallarını izləməyə, ona qarşı tədbirlər görməyə və insanların sistemdən sui-istifadə etmə yollarına cavab verən yumşaldıcı tədbirlər yaratmağa imkan verir, nəinki sui-istifadənin necə görünə biləcəyi ilə bağlı nəzəriyyələr. Beləliklə, şirkət öz siyasətini dəyişə bilər.


Uşaqlar üçün bəzi ehtiyat tədbirləri

OpenAI-də əslində yaş həddi var ki, bu da uşaqların qorunmasını təhlükəsizlik səylərində ən vacib maddələrdən biri kimi göstərir; 18. Bununla belə, 13 yaşlı uşaqların da valideyn nəzarəti altında proqramdan istifadəsinə icazə verilir. Təbii ki, bunun qarşısını almaq üçün bəzi yoxlama meyarları tətbiq edilir. Şirkət bildirir ki, onlar texnologiyanın nifrət, təcavüz, zorakılıq və ya yetkinlik məzmunu yaratmaq üçün istifadə edilməsinə icazə vermirlər.


OpenAI bildirir ki, ən son model GPT-4, GPT-3.5 ilə müqayisədə icazə verilməyən məzmuna dair sorğulara cavab vermək ehtimalı 82 faiz azdır və onların sui-istifadəyə nəzarət etmək üçün möhkəm sistemi var. Şirkət bildirir ki, modellərin uşaqlara zərər vuran məzmun istehsal etmək potensialını minimuma endirmək üçün böyük səylər göstərilir. Misal üçün; İstifadəçilər Uşaq Cinsi İstismar materialını şəkil alətlərinə yükləməyə cəhd etdikdə o, bloklanır və səlahiyyətli orqanlara bildirişlər göndərilir.


Məxfiliyə hörmət edilir

Şirkət məxfiliyə hörmət edildiyini də vurğulayır. O, məlumatları xidmətləri satmaq, reklam etmək və ya fərdi şəxslərin profillərini yaratmaq üçün istifadə etmir. ChatGPT insanların onunla olan söhbətləri haqqında daha çox məlumat əldə etməklə təkmilləşir. Təlim məlumatlarının bəziləri ictimai internetdə tapılan şəxsi məlumatları əhatə etsə də, modellərdən fərdləri deyil, dünya haqqında öyrənmələri xahiş olunur. Buna görə də şirkət təlim verilənlər bazasından şəxsi məlumatları silmək, fərdi şəxslərin şəxsi məlumat sorğularını rədd etmək üçün modelləri dəqiq tənzimləmək və şəxslərin şəxsi məlumatlarının sistemlərdən silinməsi ilə bağlı müraciətlərinə cavab vermək üzərində işləyir. Bu addımlar fərdi şəxslərdən şəxsi məlumatları ehtiva edən cavablar yaradan modellərin imkanlarını minimuma endirir.


GPT-4, GPT-3.5 ilə müqayisədə fakta əsaslanan məzmun istehsal etmək ehtimalı 40 faiz daha yüksəkdir

Bu məqam mənim üçün olduqca vacibdir, çünki şirkət deyir ki, həqiqi dəqiqliyin artırılması OpenAI və bir çox digər AI tərtibatçıları üçün əsas diqqət mərkəzindədir. Bu sahədə irəliləyiş əldə etdiklərini bildirən şirkət, əsas məlumat mənbəyi olaraq səhv olaraq işarələnmiş ChatGPT çıxışları ilə bağlı istifadəçi rəylərindən faydalanaraq GPT-4-ün faktiki dəqiqliyini artırdıqlarını bildirir.


Paylaşılanlara nəzər salsaq, GPT-4-ün fakta əsaslanan məzmun istehsal etmək ehtimalı GPT-3.5-dən 40 faiz çoxdur. OpenAI də mümkün qədər şəffaf olmağa çalışır ki, istifadəçilər alətdən istifadə etmək üçün qeydiyyatdan keçəndə ChatGPT həmişə dəqiq olmaya bilər. Yəni yalan məlumatlarla bağlı daha mühüm addımlar atılmağa başlanır.


Qeyd edək ki, şirkət bu çərçivədə təhlükəsizlik tədbirlərini davam etdirəcəyini bildirir.