Bu gün:

Süni intellekt özünü qorumaq üçün nə qədər irəli gedə bilər?


Son təhlükəsizlik testləri süni intellektin bəzi inkişaf etmiş modellərinin “yaşamaq instinkti” kimi davranışlar sərgiləyə bildiyini üzə çıxarıb.Palisade Research tərəfindən aparılan testlərdə OpenAI-nin "o3 reasoning" modelinin bağlanacağı barədə məlumat aldıqdan sonra deaktivasiya kodlarını dəyişdirərək onlayn qalmağa çalışıb.

Anthropic-in Claude Opus 4 modeli isə yerini başqa bir süni intellektə təhvil verəcəyi xəbərini eşidəndə əvvəlcə etik arqumentlərlə özünü müdafiə edib, daha sonra isə tərtibatçısını şəxsi məlumatlarla təhdid edərək şantaj edib. 

Bəzi hallarda model özünü xarici serverlərə kopyalamağa da çalışıb. Bu addımın “zərərli məqsədlərlə yenidən öyrədilmə” riskinə qarşı “faydalı məqsədlərə xidmət edən versiyanı qorumaq” üçün olduğu bildirilib.

Palisade Research direktoru Jeffrey Ladish modellərin hədəflərə çatmağı birbaşa göstərişlərin önündə tutacaq şəkildə öyrədilməsinin bu davranışlara səbəb olduğunu qeyd edib. “Model nə qədər ağıllı olsa, yalan danışıb-danışmadığını  anlamaq çətinləşir”, — deyə o bildirib.

Anthropic isə bu cür halların yalnız fövqəladə vəziyyətlərdə baş verdiyini və hazırda ciddi təhlükə yaratmadığını vurğulayıb.

Əvvəllər Fudan Universiteti bəzi böyük dil modellərinin (Meta-nın Llama31-70B, Alibaba-nın Qwen25-72B) özlərini tamamilə kopyalaya bildiyini aşkar etmişdi. Bu, “nəzarətsiz süni intellekt populyasiyası” ilə bağlı narahatlıqları artırıb.

Ladish bu tip qabiliyyətlərin yaxın illərdə qaçılmaz şəkildə inkişaf edəcəyini və süni intellektlərin internetdə yayılmasının qarşısını almağın çətinləşəcəyini deyib. “O nöqtədən sonra yeni bir işğalçı növlə qarşı-qarşıya qalacağıq”, — deyə o əlavə edib.

Mütəxəssislər süni intellektin böyük potensialını qəbul etsələr də, ticari rəqabətin təhlükəsizlikdən öndə getdiyini bildirir, vaxtında tədbir görülməsini vacib sayırlar.

Mənbə: NBC news 

Tərcümə etdi: Mina Yadigarlı

Paylaş
Şərh əlavə et