21 April 2026

AI detektorlar niyə səhvlərə yol verir? Süni İntellektlə yaradılmış məzmunun aşkarlanması problemləri

“Bu məhsullar mükəmməl deyil.”
Sarah Eaton (University of Calgary professoru, akademik dürüstlük üzrə mütəxəssis)

“Müəllimlər AI hesabatlarını qərar verən deyil, resurs kimi istifadə etməlidir və son qərarı həmişə insan verir.”
Annie Chechitelli (Turnitin şirkətinin Chief Product Officer-i)

“Bu alətlər qadağan edilməlidir və tələbələr belə vəziyyətlərə salınmamalıdır.”
Timnit Gebru (Distributed AI Research Institute icraçı direktoru, AI etikası üzrə alim)

“AI detektoru sübut təqdim etmir – yalnız statistik nümunələrə əsaslanan bir ehtimaldır.”
Geoffrey A. Fowler (texnologiya jurnalisti, The Washington Post)


Süni intellekt tərəfindən yaradılan məzmun anlayışı son illərdə rəqəmsal mühitin əsas faktorlarından birinə çevrilmişdir. Bu anlayış generativ modellər vasitəsilə insan müdaxiləsi olmadan və ya minimal nəzarət altında yaradılan vizual, mətn və digər informasiya formalarını əhatə edir. Belə sistemlər böyük həcmli verilənlər üzərində öyrədilərək statistik qanunauyğunluqları mənimsəyir və nəticədə real məzmunu təqlid edən, lakin əslində sintetik xarakter daşıyan məhsullar ortaya çıxarır. Bu kontekstdə AI-generated content informasiya mühitinin ontoloji strukturunu dəyişdirən fenomen kimi qiymətləndirilir.

Mövzunun aktuallığı onun yaratdığı epistemoloji və sosial təsirlərlə sıx bağlıdır. Ənənəvi olaraq informasiya mənbələrinin etibarlılığı onların mənşəyi və müəllifliyi ilə müəyyən edilirdisə süni intellektin inkişafı bu əlaqəni zəiflədir. Artıq vizual və ya mətn əsaslı məlumatın həqiqiliyini yalnız zahiri xüsusiyyətlərə əsaslanaraq qiymətləndirmək mümkün olmur. Bu isə dezinformasiyanın yayılması, ictimai rəyin manipulyasiyası və akademik dürüstlük kimi sahələrdə ciddi risklər yaradır. Xüsusilə generativ modellərin yüksək keyfiyyətli və realistik nəticələr istehsal etməsi, fərqləndirmə prosesini həm texniki, həm də metodoloji baxımdan mürəkkəbləşdirir.

Eyni zamanda, AI-generated content-in sürətlə yayılması aşkarlama mexanizmlərinin inkişafını zəruri edir. Mövcud deteksiya yanaşmaları statistik analiz, model əsaslı müqayisə və verilənlərin daxili strukturlarının öyrənilməsi üzərində qurulsa da bu metodların etibarlılığı hələ də mübahisəlidir. Süni intellekt sistemləri daim təkmilləşdikcə, onların yaratdığı məzmunun təbii informasiya ilə fərqləndirilməsi daha çətinləşir və bu proses adaptiv, çoxsəviyyəli yanaşmalar tələb edir. Bu səbəbdən, AI-generated content-in öyrənilməsi yalnız texniki məsələ deyil, həm də informasiya təhlükəsizliyi, etik standartlar və elmi metodologiya baxımından mühüm tədqiqat istiqaməti kimi çıxış edir.

 

Süni intellektlə yaradılan şəkil və real şəkilin fərqləri

Süni intellekt vasitəsilə generasiya olunan təsvirlərlə real fotoqrafik görüntülər arasındakı fərqlər vizual analiz səviyyəsində həm semantik, həm də statistik xüsusiyyətlər üzrə özünü göstərir. Generativ modellər, xüsusilə dərin öyrənmə əsaslı arxitekturalar geniş verilənlər bazasında mövcud olan nümunələri öyrənərək yeni təsvirlər yaradır. Lakin bu proses fiziki reallığın tam rekonstruksiyası deyil, statistik ehtimalların sintezi olduğuna görə, nəticə etibarilə bəzi struktur uyğunsuzluqlar ortaya çıxır. Bu uyğunsuzluqlar ən çox insan anatomiyası kimi mürəkkəb və yüksək dəqiqlik tələb edən sahələrdə müşahidə olunur; xüsusilə əllər və barmaqlar kimi incə strukturlarda say, forma və perspektiv baxımından səhvlər tez-tez rast gəlinir. Bu hal generativ modellərin lokal detal səviyyəsində ardıcıl məntiqi qorumaqda çətinlik çəkməsi ilə izah olunur.

Bununla yanaşı, süni təsvirlərdə simmetriyanın pozulması və ya obyektlər arasında semantik əlaqələrin zəifləməsi də diqqət çəkir. Məsələn, fon və əsas obyekt arasında işıq istiqaməti, kölgə paylanması və ya perspektiv uyğunluğu real dünyadakı fiziki qanunlara tam uyğun gəlməyə bilər. Bu cür uyğunsuzluqlar təsvirin ümumi vizual realizmini azaldır, lakin yüksək keyfiyyətli generativ modellərdə bu fərqlər getdikcə daha az nəzərə çarpır və aşkarlanması çətinləşir.

Real fotoqrafik görüntülər isə optik sistemlər və fiziki mühitin qarşılıqlı təsiri nəticəsində formalaşdığı üçün işıqlandırma, tekstura və material xüsusiyyətləri baxımından daha ardıcıl və qanunauyğun struktur nümayiş etdirir. Kamera sensorlarının yaratdığı səs-küy paylanması, fokus dərinliyi və obyektiv distorsiyası kimi faktorlar təsvirin autentikliyini artıran mühüm elementlərdir. Bu xüsusiyyətlər süni şəkildə yaradılmış təsvirlərdə ya tam imitasiya olunmur, ya da qeyri-təbii şəkildə təkrarlanır. Bununla belə, son nəsil generativ modellərin inkişafı nəticəsində yüksək keyfiyyətli süni təsvirlər real görüntülərə vizual olaraq çox yaxınlaşmışdır və bu da onların fərqləndirilməsini həm insan müşahidəçiləri, həm də avtomatlaşdırılmış sistemlər üçün daha mürəkkəb problemə çevirmişdir.

 

AI Detektorlar şəkilləri necə tanıyır?

Süni intellekt əsaslı şəkil deteksiya sistemləri təsvirlərin mənşəyini müəyyən etmək məqsədilə çoxsəviyyəli analitik yanaşmalardan istifadə edir və bu proses həm vizual, həm də statistik xüsusiyyətlərin dərin təhlilinə əsaslanır. Generativ modellərlə yaradılmış şəkillər ilk baxışda real təsvirlərə bənzəsə də onların daxili strukturu fiziki dünyadan əldə edilən görüntülərdən fərqli statistik paylanma nümayiş etdirir. Detektorlar məhz bu fərqləri aşkar etməyə yönəlmişdir.

Bu sistemlər ilkin mərhələdə təsvirin piksel səviyyəsində analizini həyata keçirir. Real fotoşəkillərdə kamera sensorları tərəfindən formalaşan səs-küy (noise) paylanması müəyyən fiziki qanunauyğunluqlara tabedir və adətən ardıcıl struktur nümayiş etdirir. Süni şəkildə generasiya olunmuş təsvirlərdə isə bu səs-küy ya süni şəkildə əlavə olunur, ya da ümumiyyətlə mövcud olmur ki, bu da statistik anomaliyaların yaranmasına səbəb olur. Detektorlar bu fərqləri öyrənilmiş modellər vasitəsilə ayırd edə bilir.

Bundan əlavə, generativ modellər, xüsusilə GAN əsaslı sistemlər təsvirləri tez-tez tezlik (frequency) domenində müəyyən izlərlə buraxır. Bu izlər insan gözü ilə görünməsə də, Fourier transformasiyası kimi metodlarla aşkar edilə bilir. Real təsvirlərdə yüksək və aşağı tezlik komponentləri təbii balans təşkil etdiyi halda süni təsvirlərdə bu balans pozula bilər. AI detektorları bu cür tezlik uyğunsuzluqlarını analiz edərək qərar verir.

Qeyd: Fourier transformasiyası siqnalların və təsvirlərin analizində istifadə olunan fundamental riyazi çevirmədir və əsas məqsədi verilmiş funksiyanı və ya məlumatı zaman və ya məkan domenindən tezlik domeninə keçirməkdir. Bu yanaşma göstərir ki, istənilən mürəkkəb siqnal müxtəlif tezliklərə malik sadə sinusoidal komponentlərin cəmi kimi təqdim oluna bilər. Başqa sözlə, bir görüntünün və ya siqnalın “nədən ibarət olduğunu” deyil, “hansı tezliklərdən ibarət olduğunu” analiz etməyə imkan verir.

Daha inkişaf etmiş yanaşmalarda isə dərin neyron şəbəkələrindən istifadə olunur. Bu şəbəkələr böyük həcmli real və süni şəkil datasetləri üzərində öyrədilərək hər iki kateqoriyanın xarakterik xüsusiyyətlərini avtomatik şəkildə çıxarır. Nəticədə sistem yeni təqdim olunan bir şəkli ehtimal əsasında “real” və ya “AI-generated” kimi təsnif edir. Bununla belə, generativ modellərin sürətli inkişafı deteksiya prosesini dinamik və çətin bir problemə çevirir, çünki yeni modellər əvvəlki detektorların öyrəndiyi nümunələri effektiv şəkildə gizlədə bilir.

 

Süni İntellektlə yazılan mətn və insan yazısının fərqləri

Süni intellekt tərəfindən generasiya olunan mətn ilə insan tərəfindən yazılmış mətn arasındakı fərqlər əsasən dilin statistik strukturu, semantik dərinlik və üslub variasiyası səviyyəsində müşahidə olunur. Müasir dil modelləri böyük həcmli korpuslar üzərində öyrədilərək sözlərin və ifadələrin ehtimal paylanmasını mənimsəyir və nəticədə yüksək dərəcədə qrammatik cəhətdən düzgün, koherent və strukturlaşdırılmış mətnlər yaradır. Lakin bu mətnlərdə dilin forması ilə məzmunun mənşəyi arasında fundamental fərq qalmaqdadır; generativ sistemlər real təcrübəyə deyil, statistik uyğunluqlara əsaslanır.

AI tərəfindən yaradılan mətnlərdə sintaktik ardıcıllıq və leksik uyğunluq adətən yüksək səviyyədə olur. Cümlələr arasında keçidlər hamar və məntiqi qurulur, lakin bu ardıcıllıq bəzən həddindən artıq “ideal” xarakter daşıyır. Dilin bu cür optimallaşdırılmış forması spontanlıq və qeyri-xətti ifadə xüsusiyyətlərinin azalmasına səbəb olur. İnsan yazısında isə dil istifadəsi daha dəyişkən və kontekstdən asılıdır; müəllifin emosional vəziyyəti, fərdi təcrübəsi və idrak üslubu mətnə təsir göstərir. Bu səbəbdən insan mətnlərində bəzən qeyri-bərabər ritm, struktur pozuntuları və ya üslubi variasiyalar müşahidə olunur ki, bu da onların təbii xarakterini formalaşdırır.

Semantik baxımdan AI mətnləri çox vaxt mövzu daxilində qalmağa meyilli olur və ümumiləşdirilmiş ifadələrdən istifadə edir. Bu, modelin təhlükəsiz və yüksək ehtimallı ifadələri seçmə strategiyası ilə bağlıdır. İnsan yazısında isə daha spesifik, kontekstual və bəzən qeyri-standart ideyalar yer ala bilər. Bundan əlavə, insan müəlliflər dil vasitəsilə şəxsi mövqelərini, şübhələrini və ya emosional nüanslarını ifadə edə bilir, halbuki AI mətnləri bu cəhətdən daha neytral və balanslı görünür.

Süni intellekt və insan yazısı arasındakı fərq yalnız qrammatik və ya leksik səviyyədə deyil, həm də dilin generativ mənbəyi, idrak modeli və semantik ifadə dərinliyi ilə müəyyən olunur. Bu fərqlər müasir mətn deteksiya sistemlərinin əsas istinad nöqtələrindən biri kimi çıxış edir, baxmayaraq ki, dil modellərinin inkişafı bu sərhədləri getdikcə daha da qeyri-müəyyən edir.

 

AI mətn detektorları necə işləyir?

Süni intellekt tərəfindən yaradılmış mətnlərin aşkarlanması dilin statistik və ehtimal xarakterli təbiətinə əsaslanan analitik metodlarla həyata keçirilir. Müasir deteksiya sistemləri mətnin səthi görünüşündən daha çox onun daxili strukturunu, söz seçimlərinin ehtimal paylanmasını və sintaktik ardıcıllığını təhlil edir. Bu yanaşmanın əsasında fərziyyə dayanır ki, AI modelləri dili yüksək ehtimallı və proqnozlaşdırıla bilən şəkildə generasiya edir, insan yazısı isə daha qeyri-xətti və dəyişkən xüsusiyyətlər nümayiş etdirir.

Detektorlar ilkin mərhələdə mətnin ehtimal strukturunu qiymətləndirir. Bu məqsədlə tez-tez “perplexity” kimi tanınan ölçüdən istifadə olunur. Perplexity müəyyən bir mətnin dil modeli üçün nə dərəcədə gözlənilən olduğunu ifadə edir; aşağı perplexity dəyəri mətnin daha proqnozlaşdırıla bilən olduğunu göstərir ki, bu da AI generasiyası ehtimalını artırır. İnsan tərəfindən yazılmış mətnlərdə isə söz seçimi və cümlə quruluşu daha müxtəlif olduğundan, bu göstərici adətən daha yüksək olur.

Bununla yanaşı, deteksiya sistemləri “burstiness” adlandırılan variasiya səviyyəsini də analiz edir. İnsan yazısı cümlə uzunluğu, struktur və ritm baxımından daha dəyişkən olur, halbuki AI mətnlərində bu variasiya nisbətən az və daha homogen xarakter daşıyır. Detektorlar bu cür ritmik və struktur fərqləri statistik modellər vasitəsilə ölçərək qərarvermə prosesinə daxil edir.

Daha inkişaf etmiş sistemlər isə maşın öyrənməsi və dərin neyron şəbəkələrindən istifadə edir. Bu modellər həm AI, həm də insan tərəfindən yazılmış böyük mətn korpusları üzərində öyrədilərək hər iki kateqoriyanın xüsusiyyətlərini avtomatik şəkildə çıxarır. Nəticədə təqdim olunan mətnin hansı mənbədən gəldiyi ehtimal əsasında müəyyən edilir. Bununla belə, dil modellərinin davamlı inkişafı və insan yazısına daha yaxın mətnlər generasiya etməsi deteksiya prosesini getdikcə daha mürəkkəb və qeyri-müəyyən hala gətirir.

 

AI detektorlarının problemləri və plagiat sistemlərinin məhdudiyyətləri

Süni intellekt əsaslı mətn detektorlarının və plagiat aşkarlama sistemlərinin effektivliyi müasir generativ modellərin inkişaf sürəti ilə müqayisədə məhdud qalır. Bu sistemlər əsasən statistik və ehtimal əsaslı yanaşmalara söykəndiyi üçün onların verdiyi nəticələr deterministik deyil, ehtimal xarakterlidir və bu da etibarlılıq məsələsini problematik edir. AI detektorları mətnin struktur xüsusiyyətlərinə, söz seçiminə və sintaktik ardıcıllığına əsaslanaraq qərar verir, lakin bu göstəricilər insan yazısında da müəyyən hallarda müşahidə oluna bilər. Nəticədə yanlış pozitiv hallar meydana çıxır, yəni insan tərəfindən yazılmış mətnlər süni intellekt məhsulu kimi qiymətləndirilə bilər. Eyni zamanda, yüksək keyfiyyətli generativ modellər tərəfindən yaradılmış mətnlər bəzi hallarda detektorlar tərəfindən aşkarlanmır və bu da yanlış negativ nəticələrə səbəb olur.

Plagiat aşkarlama sistemlərinin məhdudiyyətləri isə daha fundamental xarakter daşıyır. Klassik plagiat proqramları mətnlər arasında birbaşa oxşarlıq və ya fraza uyğunluğu əsasında işləyir. Onların əsas məqsədi mövcud mənbələrdən kopyalanmış hissələri aşkar etməkdir. Lakin AI tərəfindən yaradılan mətnlər adətən heç bir konkret mənbədən birbaşa köçürülmür; onlar öyrədilmiş modelin daxili statistik strukturu əsasında sıfırdan generasiya olunur. Bu səbəbdən belə mətnlər texniki olaraq “unikal” hesab olunur və plagiat sistemləri tərəfindən aşkarlanmır.

Bundan əlavə, generativ modellər parafraz etmə qabiliyyətinə malikdir və mövcud məzmunu struktur və ifadə baxımından dəyişdirərək yeni kimi təqdim edə bilir. Bu isə plagiat sistemlərinin semantik səviyyədə deyil, əsasən səthi oxşarlıq səviyyəsində işləməsi ilə əlaqəli zəifliyini daha da ön plana çıxarır. Nəticədə, AI istifadə olunaraq hazırlanmış akademik mətnlər formal olaraq plagiat sayılmasa da, onların müəllifliyi və orijinallığı ilə bağlı ciddi suallar yaranır.

Həm AI detektorları, həm də plagiat proqramları müasir generativ texnologiyaların yaratdığı çağırışlara tam adekvat cavab verə bilmir və bu sahədə daha kompleks, semantik və kontekstual analiz metodlarının inkişafı zəruri hesab olunur.

Məşhur süni intellekt və plagiat aşkarlama platformaları rəsmi açıqlamalarında AI-generated məzmunun aşkarlanması ilə bağlı ciddi məhdudiyyətləri açıq şəkildə qəbul edir və bu sahədə nəticələrin yalnız ehtimal xarakteri daşıdığını vurğulayır. Məsələn, Turnitin tərəfindən təqdim olunan AI writing detection sistemi rəsmi olaraq bildirir ki, bu alət “100% dəqiqlik təmin etmir” və nəticələr “yalnız göstərici kimi istifadə olunmalıdır”. Şirkət xüsusilə qeyd edir ki, AI detektorlarının verdiyi nəticələr akademik qərarların yeganə əsası kimi istifadə edilməməlidir və insan ekspert qiymətləndirməsi mütləq şəkildə prosesə daxil edilməlidir.



tərcüməsi: Bizim süni intellekt əsaslı yazı aşkarlama modelimiz hər zaman dəqiq olmaya bilər (insan tərəfindən yazılmış, süni intellekt tərəfindən yaradılmış və ya süni intellekt vasitəsilə parafraz edilmiş mətnləri səhv müəyyənləşdirə bilər), buna görə də bu alət tələbəyə qarşı hər hansı mənfi tədbirin görülməsi üçün yeganə əsas kimi istifadə olunmamalıdır. Akademik qayda pozuntusunun baş verib-vermədiyini müəyyən etmək üçün əlavə təhlil, insan mühakiməsi və təşkilatın özünəməxsus akademik siyasətlərinin tətbiqi zəruridir.


Eyni yanaşma OpenAI tərəfindən də ifadə edilmişdir. OpenAI əvvəl təqdim etdiyi AI text classifier alətinin aşağı etibarlılıq səviyyəsinə görə geri çəkildiyini rəsmi şəkildə elan etmişdir. Şirkət bu qərarı belə əsaslandırmışdır ki, mövcud deteksiya metodları həm yanlış pozitiv, həm də yanlış negativ nəticələr verməyə meyllidir və bu, istifadəçilərin yanlış şəkildə ittiham olunmasına səbəb ola bilər. Bu mövqe generativ modellərin inkişaf səviyyəsinin deteksiya texnologiyalarını qabaqladığını göstərir.

Bundan əlavə, GrammarlyCopyleaks kimi platformalar da AI aşkarlama funksiyalarını təqdim etsələr də, rəsmi sənədlərində bu sistemlərin yalnız ehtimal əsaslı işlədiyini və nəticələrin mütləq həqiqət kimi qəbul edilməməli olduğunu vurğulayırlar. Copyleaks xüsusilə qeyd edir ki, AI-generated mətnlər “orijinal” hesab oluna bilər və plagiat yoxlaması ilə AI deteksiyası eyni anlayış deyil.

StrikePlagiarism rəsmi mövqeyində süni intellektlə yaradılmış mətnlərin aşkarlanmasının hələ tam etibarlı olmadığını açıq şəkildə qəbul edir və bu cür sistemlərin yalnız köməkçi alət kimi istifadə olunmalı olduğunu vurğulayır. Platforma bildirir ki, AI deteksiya modulu mətnin struktur xüsusiyyətlərinə və statistik göstəricilərinə əsaslanaraq analiz aparır, lakin bu analiz nəticələri qəti hökm deyil, ehtimal xarakterli qiymətləndirmədir.

Şirkətin rəsmi yanaşmasına görə, AI-generated mətnlər klassik plagiat anlayışına daxil olmur, çünki bu məzmun mövcud mənbədən birbaşa köçürülmür. Bu səbəbdən StrikePlagiarism plagiat yoxlaması ilə AI aşkarlanmasını iki fərqli proses kimi təqdim edir. Plagiat sistemi mətnlərarası oxşarlığı müəyyən etməyə yönəldiyi halda, AI detektorları mətnin generasiya üsulunu təxmin etməyə çalışır. Bu isə metodoloji baxımdan daha qeyri-müəyyən və çətin problemdir.

StrikePlagiarism həmçinin qeyd edir ki, AI detektorları yanlış pozitiv nəticələr verə bilər, yəni insan tərəfindən yazılmış mətn səhvən AI kimi qiymətləndirilə bilər. Bu xüsusilə akademik və formal üslubda yazılmış mətnlərdə daha tez-tez müşahidə olunur, çünki bu tip yazılar struktur baxımından AI mətnlərinə bənzər xüsusiyyətlər daşıya bilər. Eyni zamanda, bəzi AI-generated mətnlər detektordan keçə bilər və bu da yanlış negativ halların mövcud olduğunu göstərir.

Platforma istifadəçilərə tövsiyə edir ki, AI deteksiya nəticələri heç vaxt təkbaşına qərarvermə vasitəsi kimi istifadə olunmamalıdır. Akademik qiymətləndirmə prosesində müəllimin və ya ekspertin rolu əsas olaraq qalır. Bu yanaşma göstərir ki, hətta ixtisaslaşmış plagiat və AI analiz sistemləri belə, süni intellektlə yaradılmış məzmunun aşkarlanmasını hələ tam həll olunmuş problem kimi qəbul etmir.

Bu açıqlamalar göstərir ki, aparıcı platformalar belə AI məzmununun aşkarlanmasının hələ tam həll olunmamış problem olduğunu qəbul edir. Rəsmi mövqelərdə ortaq fikir ondan ibarətdir ki, mövcud alətlər köməkçi vasitə kimi istifadə edilməli, lakin yekun qərar vermə prosesi yalnız avtomatlaşdırılmış sistemlərə həvalə edilməməlidir.

 

Dünya ölkələrində akademik mühitdə AI deteksiyası necə nəzərə alınır?

Dünya üzrə universitetlər və akademik institutlar süni intellektlə yaradılmış məzmunun artması fonunda bu məsələni ciddi şəkildə tənzimləməyə çalışır, lakin ümumi yanaşma ehtiyatlı və balanslıdır. Aparıcı universitetlərdə AI detektorlarının nəticələri birbaşa sübut kimi deyil, yalnız ilkin indikator kimi qəbul olunur. Məsələn, ABŞ və Avropadakı bir çox ali təhsil müəssisəsi rəsmi qaydalarında bildirir ki, AI deteksiya nəticələri tələbəyə qarşı intizam tədbiri tətbiq etmək üçün kifayət deyil və əlavə sübutlar tələb olunur. Bu yanaşma texnologiyanın qeyri-dəqiqliyinin qəbul edildiyini göstərir.

Xüsusilə Turnitin kimi platformaların özləri də universitetlərə tövsiyə edir ki, AI göstəricilərini “final qərar vasitəsi” kimi istifadə etməsinlər. Bir çox universitet siyasətində müəllimlərə tapşırılır ki, şübhəli hallarda tələbə ilə müsahibə aparılsın, yazı prosesinə dair sübutlar (draftlar, qeydlər) tələb olunsun və kontekstual qiymətləndirmə aparılsın.

2023-cü ildə bir neçə ABŞ universitetində tələbələr özlərinin yazdığı esselərə görə AI istifadə etməkdə ittiham olunublar. Sonradan məlum olub ki, istifadə edilən AI detektorları səhv nəticə verib. Bəzi hallarda tələbələr öz yazı proseslərini sübut etmək üçün:

·         Google Docs tarixçəsini

·         qaralama versiyalarını

·         müəllim qarşısında şifahi izahlarını təqdim etməli olublar

Bu hadisələrdən sonra bir çox universitet AI detektorlarına etibar səviyyəsini azaltmağa başlayıb.

2023-cü ildə University of Sydney daxilində AI deteksiya alətlərinin tətbiqi zamanı bəzi tələbələrin yazdığı işlər süni intellekt tərəfindən hazırlanmış kimi işarələnmişdir. Aparılan daxili qiymətləndirmələr göstərmişdir ki, bu nəticələrin bir hissəsi yanlış pozitiv xarakter daşıyır. Universitet rəhbərliyi bundan sonra AI detektorlarının yalnız yardımçı vasitə kimi istifadə edilməsini və heç bir halda avtomatik qərar mexanizmi olmamasını tövsiyə etmişdir.

University of Tokyo-da AI istifadəsi ilə bağlı yeni qaydaların tətbiqi zamanı bəzi tələbələrin öz yazılarının AI kimi qiymətləndirilməsi akademik mübahisələrə səbəb olmuşdur. Universitet bu kimi halların qarşısını almaq üçün tələbələrdən yazı prosesini sənədləşdirməyi və şəffaflığı artırmağı tələb etmişdir.

2024-cü ildə Technical University of Munich AI detektorlarının hüquqi və metodoloji məhdudiyyətlərini nəzərə alaraq onların istifadəsini rəsmi şəkildə məhdudlaşdırmışdır. Universitet qeyd etmişdir ki, bu alətlərin nəticələrinə əsaslanaraq tələbələrə qarşı intizam tədbiri görmək etibarlı və hüquqi baxımdan əsaslandırılmış yanaşma deyil.


Həmin xəbərləri özünüz də oxuya bilərsiniz, tapa bilərsiniz.


Washington Post-da dərc olunmuş bu məqaləni də oxuyun:

https://www.washingtonpost.com/technology/2023/08/14/prove-false-positive-ai-detection-turnitin-gptzero/ 

Süni intellekt detektorları akademik mühitdə geniş istifadə olunsa da, onların nəticələri tam etibarlı hesab edilmir. Bu sistemlər tez-tez yanlış pozitiv nəticələr verə bilər və buna görə universitetlər və ekspertlər onların yalnız köməkçi alət kimi istifadə olunmasını tövsiyə edir. Son qərarın verilməsi isə mütləq şəkildə insan qiymətləndirməsinə əsaslanmalıdır.

Süni intellekt detektorlarının nəticələri tam sübut kimi qəbul edilmir, çünki bu sistemlər yalnız statistik göstəricilərə əsaslanaraq ehtimal xarakterli nəticə təqdim edir.
Bu səbəbdən onların verdiyi nəticələr səhv ola bilər və tələbələr haqsız ittiham oluna bilər.

AI detektorlarının səhv nəticələr verməsi real hallarda da müşahidə olunmuşdur və bu, akademik mühitdə ciddi narahatlıq doğurur. “Bu məhsullar mükəmməl deyil” (Sarah Eaton – University of Calgary professoru, akademik dürüstlük üzrə mütəxəssis).

Eyni zamanda bu sistemlərin qərarvermə prosesində əsas rol oynamamalı olduğu vurğulanır. “Müəllimlər AI hesabatlarını qərar verən deyil, resurs kimi istifadə etməlidir və son qərarı həmişə insan verir” (Annie Chechitelli – Turnitin şirkətinin Chief Product Officer-i).

Ekspertlər bildirir ki, AI detektorlarına həddindən artıq etibar etmək düzgün deyil və bu texnologiyalar akademik qərarların avtomatlaşdırılması üçün uyğun deyil. “Bu alətlər qadağan edilməlidir və tələbələr belə vəziyyətlərə salınmamalıdır” (Timnit Gebru – Distributed AI Research Institute icraçı direktoru, AI etikası üzrə alim).

Bundan əlavə, AI detektorlarının “sübut” təqdim etmədiyi, yalnız statistik ehtimallar əsasında “təxmin” verdiyi vurğulanır. “AI detektoru sübut təqdim etmir – yalnız statistik nümunələrə əsaslanan bir ehtimaldır” (Geoffrey A. Fowler – texnologiya jurnalisti, The Washington Post).