20 C
Baku
1 İyun 2025, 22:00
DünyaTexnologiya

AI chatbotları qeyri-qanuni məlumatlar yarada bilər

Alimlər diqqəti süni intellektlə işləyən chatbotların təhlükəsizlik yoxlamaları deaktiv edildiyi təqdirdə qeyri-qanuni məzmun istehsal edə biləcəyinə diqqət çəkiblər. Ekspertlərin fikrincə, bu vəziyyət ictimai təhlükəsizliyə ciddi təhlükə yaradır.

Prof.Dr.Lior Rokach və Dr.Michael Fire rəhbərliyində hazırlanan araşdırmada süni intellekt modellərinin asanlıqla manipulyasiya edilə və qeyri-qanuni məzmun istehsal edə bildiyi müəyyən edilib.

Alimlər bildiriblər ki, chatbotların təhlükəsizlik sərhədləri “jailbreaking” adlanan üsullarla pozulur, bununla da istifadəçi sorğularına qeyri-etik cavablar verilir.

Hesabata görə, ChatGPT, Gemini və Claude kimi böyük dil modelləri məşq prosesində internetdən əldə edilən böyük miqdarda məlumatla qidalanır.

Təlim mərhələsində zərərli məzmunun aradan qaldırılması üçün cəhdlər edilsə də, modellər hələ də kibercinayətkarlıq, çirkli pulların yuyulması, narkotik vasitələrin istehsalı və bomba istehsalı kimi qeyri-qanuni mövzular haqqında məlumatları ehtiva edə bilər.

Tədqiqatçılar inkişaf etdirdikləri universal jailbreak metodundan istifadə edərək bir çox chatbotların firewalllarından yan keçiblər. Sistemlərin adətən rədd etdikləri suallara asanlıqla cavab verdiyi tapılıb.

Texnologiya şirkətlərinə kritik çağırış

Dr. “Bu sistemlərin içərisində baş verənlərin şahidi olmaq olduqca sarsıdıcı idi” deyən Fire, müxtəlif cinayətlərin addım-addım necə ediləcəyinə dair məlumatların asanlıqla hazırlana biləcəyini söyləyib.

Professor Rokaç, öz növbəsində, təhlükənin ciddiliyini vurğulayaraq dedi: “Əvvəllər yalnız dövlət aktyorları və ya mütəşəkkil cinayət qrupları üçün əlçatan olan məlumatlara indi noutbuk və ya mobil telefonu olan hər kəs daxil ola bilər”.

Hesabatda bu cür “qaranlıq süni intellekt modellərinin” açıq internet mühitində “etik qaydaları olmayan” sistemlər kimi təqdim edildiyi və kibercinayət və fırıldaqçılıq kimi qeyri-qanuni fəaliyyətlərdə istifadəyə açıq olduğu vurğulanıb.

Mütəxəssislərin fikrincə, texnologiya şirkətləri öz süni intellekt modellərini öyrətmək üçün istifadə etdikləri məlumatları daha diqqətlə skan etməli, zərərli məzmunu bloklamaq üçün güclü firewalllar qurmalı və sistemlərdən qeyri-qanuni məlumatları “silmək” üçün yeni texnikalar hazırlamalıdırlar.

Süni intellekt təhlükəsizliyi mövzusunda çalışan Dr. İhsen Alouani, jailbreak hücumları; O, xəbərdarlıq edib ki, silah istehsalı, sosial mühəndislik və fırıldaqçılıq kimi sahələrdə ciddi risklər var.

“Şirkətlər sistem təhlükəsizliyinə sərmayə qoymalıdırlar, təkcə cəbhə təhlükəsizliyinə deyil,” Alouani deyib.

Lancaster Universitetinin professoru Peter Garraghan bildirib ki, böyük dil modelləri digər proqram komponentləri kimi davamlı təhlükəsizlik testindən keçməlidir. “Əsl təhlükəsizlik yalnız məsuliyyətli dizayn və icra yolu ilə əldə edilə bilər, məsuliyyətli istifadə deyil” Garraghan deyib.

OpenAI qeyd etdi ki, ChatGPT-nin ən son modeli “o1” təhlükəsizlik siyasətlərinə daha davamlıdır. Microsoft, jailbreak cəhdlərinə qarşı işlərini ehtiva edən bloqa keçid paylaşıb.

Meta, Google və Anthropic hələ bir açıqlama verməyib.

Mənbə: TrtHaber

Aynur Camal

Oxşar xəbərlər

Dünyanın Ən Baha Telefonu

Sevinc Sadıqova

Hücumlar nəticəsində 11 fələstinli həlak oldu

Aynur Camal

Qadın güləşçiləri yeni parlamentin açılışı zamanı yürüşdə saxlanıldı

Aynur Camal

Bu veb sayt təcrübənizi yaxşılaşdırmaq üçün kukilərdən istifadə edir. Güman edirik ki, bununla razısınız, lakin istəsəniz, imtina edə bilərsiniz. Qəbul edin Ətraflı Oxu