“Bu məhsullar mükəmməl deyil.”
— Sarah Eaton (University of Calgary professoru, akademik dürüstlük üzrə mütəxəssis)
“Müəllimlər AI hesabatlarını qərar verən deyil, resurs kimi istifadə etməlidir və son qərarı həmişə insan verir.”
— Annie Chechitelli (Turnitin şirkətinin Chief Product Officer-i)
“Bu alətlər qadağan edilməlidir və tələbələr belə vəziyyətlərə salınmamalıdır.”
— Timnit Gebru (Distributed AI Research Institute icraçı direktoru, AI etikası üzrə alim)
“AI detektoru sübut təqdim etmir – yalnız statistik nümunələrə əsaslanan bir ehtimaldır.”
— Geoffrey A. Fowler (texnologiya jurnalisti, The Washington Post)
Süni intellekt tərəfindən yaradılan məzmun anlayışı son illərdə rəqəmsal mühitin əsas faktorlarından birinə çevrilmişdir. Bu anlayış generativ modellər vasitəsilə insan müdaxiləsi olmadan və ya minimal nəzarət altında yaradılan vizual, mətn və digər informasiya formalarını əhatə edir. Belə sistemlər böyük həcmli verilənlər üzərində öyrədilərək statistik qanunauyğunluqları mənimsəyir və nəticədə real məzmunu təqlid edən, lakin əslində sintetik xarakter daşıyan məhsullar ortaya çıxarır. Bu kontekstdə AI-generated content informasiya mühitinin ontoloji strukturunu dəyişdirən fenomen kimi qiymətləndirilir.
Mövzunun aktuallığı onun yaratdığı epistemoloji və sosial təsirlərlə sıx bağlıdır. Ənənəvi olaraq informasiya mənbələrinin etibarlılığı onların mənşəyi və müəllifliyi ilə müəyyən edilirdisə süni intellektin inkişafı bu əlaqəni zəiflədir. Artıq vizual və ya mətn əsaslı məlumatın həqiqiliyini yalnız zahiri xüsusiyyətlərə əsaslanaraq qiymətləndirmək mümkün olmur. Bu isə dezinformasiyanın yayılması, ictimai rəyin manipulyasiyası və akademik dürüstlük kimi sahələrdə ciddi risklər yaradır. Xüsusilə generativ modellərin yüksək keyfiyyətli və realistik nəticələr istehsal etməsi, fərqləndirmə prosesini həm texniki, həm də metodoloji baxımdan mürəkkəbləşdirir.
Eyni zamanda, AI-generated content-in sürətlə
yayılması aşkarlama mexanizmlərinin inkişafını zəruri edir. Mövcud deteksiya
yanaşmaları statistik analiz, model əsaslı müqayisə və verilənlərin daxili
strukturlarının öyrənilməsi üzərində qurulsa da bu metodların etibarlılığı hələ
də mübahisəlidir. Süni intellekt sistemləri daim təkmilləşdikcə, onların
yaratdığı məzmunun təbii informasiya ilə fərqləndirilməsi daha çətinləşir və bu
proses adaptiv, çoxsəviyyəli yanaşmalar tələb edir. Bu səbəbdən, AI-generated
content-in öyrənilməsi yalnız texniki məsələ deyil, həm də informasiya təhlükəsizliyi,
etik standartlar və elmi metodologiya baxımından mühüm tədqiqat istiqaməti kimi
çıxış edir.
Süni intellektlə yaradılan şəkil və real şəkilin fərqləri
Süni intellekt vasitəsilə generasiya olunan təsvirlərlə
real fotoqrafik görüntülər arasındakı fərqlər vizual analiz səviyyəsində həm
semantik, həm də statistik xüsusiyyətlər üzrə özünü göstərir. Generativ modellər,
xüsusilə dərin öyrənmə əsaslı arxitekturalar geniş verilənlər bazasında mövcud
olan nümunələri öyrənərək yeni təsvirlər yaradır. Lakin bu proses fiziki
reallığın tam rekonstruksiyası deyil, statistik ehtimalların sintezi olduğuna
görə, nəticə etibarilə bəzi struktur uyğunsuzluqlar ortaya çıxır. Bu
uyğunsuzluqlar ən çox insan anatomiyası kimi mürəkkəb və yüksək dəqiqlik tələb
edən sahələrdə müşahidə olunur; xüsusilə əllər və barmaqlar kimi incə
strukturlarda say, forma və perspektiv baxımından səhvlər tez-tez rast gəlinir.
Bu hal generativ modellərin lokal detal səviyyəsində ardıcıl məntiqi qorumaqda
çətinlik çəkməsi ilə izah olunur.
Bununla yanaşı, süni təsvirlərdə simmetriyanın
pozulması və ya obyektlər arasında semantik əlaqələrin zəifləməsi də diqqət çəkir.
Məsələn, fon və əsas obyekt arasında işıq istiqaməti, kölgə paylanması və ya
perspektiv uyğunluğu real dünyadakı fiziki qanunlara tam uyğun gəlməyə bilər.
Bu cür uyğunsuzluqlar təsvirin ümumi vizual realizmini azaldır, lakin yüksək
keyfiyyətli generativ modellərdə bu fərqlər getdikcə daha az nəzərə çarpır və
aşkarlanması çətinləşir.
Real fotoqrafik görüntülər isə optik sistemlər və
fiziki mühitin qarşılıqlı təsiri nəticəsində formalaşdığı üçün işıqlandırma,
tekstura və material xüsusiyyətləri baxımından daha ardıcıl və qanunauyğun
struktur nümayiş etdirir. Kamera sensorlarının yaratdığı səs-küy paylanması,
fokus dərinliyi və obyektiv distorsiyası kimi faktorlar təsvirin autentikliyini
artıran mühüm elementlərdir. Bu xüsusiyyətlər süni şəkildə yaradılmış təsvirlərdə
ya tam imitasiya olunmur, ya da qeyri-təbii şəkildə təkrarlanır. Bununla belə,
son nəsil generativ modellərin inkişafı nəticəsində yüksək keyfiyyətli süni təsvirlər
real görüntülərə vizual olaraq çox yaxınlaşmışdır və bu da onların fərqləndirilməsini
həm insan müşahidəçiləri, həm də avtomatlaşdırılmış sistemlər üçün daha mürəkkəb
problemə çevirmişdir.
AI Detektorlar şəkilləri necə tanıyır?
Süni intellekt əsaslı şəkil deteksiya sistemləri təsvirlərin
mənşəyini müəyyən etmək məqsədilə çoxsəviyyəli analitik yanaşmalardan istifadə
edir və bu proses həm vizual, həm də statistik xüsusiyyətlərin dərin təhlilinə əsaslanır.
Generativ modellərlə yaradılmış şəkillər ilk baxışda real təsvirlərə bənzəsə də
onların daxili strukturu fiziki dünyadan əldə edilən görüntülərdən fərqli
statistik paylanma nümayiş etdirir. Detektorlar məhz bu fərqləri aşkar etməyə
yönəlmişdir.
Bu sistemlər ilkin mərhələdə təsvirin piksel səviyyəsində
analizini həyata keçirir. Real fotoşəkillərdə kamera sensorları tərəfindən
formalaşan səs-küy (noise) paylanması müəyyən fiziki qanunauyğunluqlara tabedir
və adətən ardıcıl struktur nümayiş etdirir. Süni şəkildə generasiya olunmuş təsvirlərdə
isə bu səs-küy ya süni şəkildə əlavə olunur, ya da ümumiyyətlə mövcud olmur ki,
bu da statistik anomaliyaların yaranmasına səbəb olur. Detektorlar bu fərqləri
öyrənilmiş modellər vasitəsilə ayırd edə bilir.
Bundan əlavə, generativ modellər, xüsusilə GAN əsaslı
sistemlər təsvirləri tez-tez tezlik (frequency) domenində müəyyən izlərlə
buraxır. Bu izlər insan gözü ilə görünməsə də, Fourier transformasiyası kimi
metodlarla aşkar edilə bilir. Real təsvirlərdə yüksək və aşağı tezlik
komponentləri təbii balans təşkil etdiyi halda süni təsvirlərdə bu balans
pozula bilər. AI detektorları bu cür tezlik uyğunsuzluqlarını analiz edərək qərar
verir.
Qeyd: Fourier transformasiyası siqnalların və təsvirlərin
analizində istifadə olunan fundamental riyazi çevirmədir və əsas məqsədi
verilmiş funksiyanı və ya məlumatı zaman və ya məkan domenindən tezlik domeninə
keçirməkdir. Bu yanaşma göstərir ki, istənilən mürəkkəb siqnal müxtəlif tezliklərə
malik sadə sinusoidal komponentlərin cəmi kimi təqdim oluna bilər. Başqa sözlə,
bir görüntünün və ya siqnalın “nədən ibarət olduğunu” deyil, “hansı tezliklərdən
ibarət olduğunu” analiz etməyə imkan verir.
Daha inkişaf etmiş yanaşmalarda isə dərin neyron şəbəkələrindən
istifadə olunur. Bu şəbəkələr böyük həcmli real və süni şəkil datasetləri üzərində
öyrədilərək hər iki kateqoriyanın xarakterik xüsusiyyətlərini avtomatik şəkildə
çıxarır. Nəticədə sistem yeni təqdim olunan bir şəkli ehtimal əsasında “real” və
ya “AI-generated” kimi təsnif edir. Bununla belə, generativ modellərin sürətli
inkişafı deteksiya prosesini dinamik və çətin bir problemə çevirir, çünki yeni
modellər əvvəlki detektorların öyrəndiyi nümunələri effektiv şəkildə gizlədə
bilir.
Süni İntellektlə yazılan mətn və insan yazısının fərqləri
Süni intellekt tərəfindən generasiya olunan mətn ilə insan tərəfindən
yazılmış mətn arasındakı fərqlər əsasən dilin statistik strukturu, semantik
dərinlik və üslub variasiyası səviyyəsində müşahidə olunur. Müasir dil
modelləri böyük həcmli korpuslar üzərində öyrədilərək sözlərin və ifadələrin
ehtimal paylanmasını mənimsəyir və nəticədə yüksək dərəcədə qrammatik cəhətdən
düzgün, koherent və strukturlaşdırılmış mətnlər yaradır. Lakin bu mətnlərdə
dilin forması ilə məzmunun mənşəyi arasında fundamental fərq qalmaqdadır;
generativ sistemlər real təcrübəyə deyil, statistik uyğunluqlara əsaslanır.
AI tərəfindən yaradılan mətnlərdə sintaktik ardıcıllıq və leksik uyğunluq
adətən yüksək səviyyədə olur. Cümlələr arasında keçidlər hamar və məntiqi
qurulur, lakin bu ardıcıllıq bəzən həddindən artıq “ideal” xarakter daşıyır.
Dilin bu cür optimallaşdırılmış forması spontanlıq və qeyri-xətti ifadə
xüsusiyyətlərinin azalmasına səbəb olur. İnsan yazısında isə dil istifadəsi
daha dəyişkən və kontekstdən asılıdır; müəllifin emosional vəziyyəti, fərdi
təcrübəsi və idrak üslubu mətnə təsir göstərir. Bu səbəbdən insan mətnlərində
bəzən qeyri-bərabər ritm, struktur pozuntuları və ya üslubi variasiyalar
müşahidə olunur ki, bu da onların təbii xarakterini formalaşdırır.
Semantik baxımdan AI mətnləri çox vaxt mövzu daxilində qalmağa meyilli olur
və ümumiləşdirilmiş ifadələrdən istifadə edir. Bu, modelin təhlükəsiz və yüksək
ehtimallı ifadələri seçmə strategiyası ilə bağlıdır. İnsan yazısında isə daha
spesifik, kontekstual və bəzən qeyri-standart ideyalar yer ala bilər. Bundan
əlavə, insan müəlliflər dil vasitəsilə şəxsi mövqelərini, şübhələrini və ya
emosional nüanslarını ifadə edə bilir, halbuki AI mətnləri bu cəhətdən daha
neytral və balanslı görünür.
Süni intellekt və insan yazısı arasındakı fərq yalnız qrammatik və ya leksik
səviyyədə deyil, həm də dilin generativ mənbəyi, idrak modeli və semantik ifadə
dərinliyi ilə müəyyən olunur. Bu fərqlər müasir mətn deteksiya sistemlərinin
əsas istinad nöqtələrindən biri kimi çıxış edir, baxmayaraq ki, dil
modellərinin inkişafı bu sərhədləri getdikcə daha da qeyri-müəyyən edir.
AI mətn detektorları necə işləyir?
Süni intellekt tərəfindən yaradılmış mətnlərin aşkarlanması dilin statistik
və ehtimal xarakterli təbiətinə əsaslanan analitik metodlarla həyata keçirilir.
Müasir deteksiya sistemləri mətnin səthi görünüşündən daha çox onun daxili
strukturunu, söz seçimlərinin ehtimal paylanmasını və sintaktik ardıcıllığını
təhlil edir. Bu yanaşmanın əsasında fərziyyə dayanır ki, AI modelləri dili
yüksək ehtimallı və proqnozlaşdırıla bilən şəkildə generasiya edir, insan
yazısı isə daha qeyri-xətti və dəyişkən xüsusiyyətlər nümayiş etdirir.
Detektorlar ilkin mərhələdə mətnin ehtimal strukturunu qiymətləndirir. Bu
məqsədlə tez-tez “perplexity” kimi tanınan ölçüdən istifadə olunur. Perplexity
müəyyən bir mətnin dil modeli üçün nə dərəcədə gözlənilən olduğunu ifadə edir;
aşağı perplexity dəyəri mətnin daha proqnozlaşdırıla bilən olduğunu göstərir
ki, bu da AI generasiyası ehtimalını artırır. İnsan tərəfindən yazılmış
mətnlərdə isə söz seçimi və cümlə quruluşu daha müxtəlif olduğundan, bu
göstərici adətən daha yüksək olur.
Bununla yanaşı, deteksiya sistemləri “burstiness” adlandırılan variasiya
səviyyəsini də analiz edir. İnsan yazısı cümlə uzunluğu, struktur və ritm
baxımından daha dəyişkən olur, halbuki AI mətnlərində bu variasiya nisbətən az
və daha homogen xarakter daşıyır. Detektorlar bu cür ritmik və struktur
fərqləri statistik modellər vasitəsilə ölçərək qərarvermə prosesinə daxil edir.
Daha inkişaf etmiş sistemlər isə maşın öyrənməsi və dərin neyron
şəbəkələrindən istifadə edir. Bu modellər həm AI, həm də insan tərəfindən
yazılmış böyük mətn korpusları üzərində öyrədilərək hər iki kateqoriyanın
xüsusiyyətlərini avtomatik şəkildə çıxarır. Nəticədə təqdim olunan mətnin hansı
mənbədən gəldiyi ehtimal əsasında müəyyən edilir. Bununla belə, dil
modellərinin davamlı inkişafı və insan yazısına daha yaxın mətnlər generasiya
etməsi deteksiya prosesini getdikcə daha mürəkkəb və qeyri-müəyyən hala
gətirir.
AI detektorlarının problemləri və plagiat sistemlərinin məhdudiyyətləri
Süni intellekt əsaslı mətn detektorlarının və plagiat aşkarlama
sistemlərinin effektivliyi müasir generativ modellərin inkişaf sürəti ilə
müqayisədə məhdud qalır. Bu sistemlər əsasən statistik və ehtimal əsaslı
yanaşmalara söykəndiyi üçün onların verdiyi nəticələr deterministik deyil,
ehtimal xarakterlidir və bu da etibarlılıq məsələsini problematik edir. AI
detektorları mətnin struktur xüsusiyyətlərinə, söz seçiminə və sintaktik
ardıcıllığına əsaslanaraq qərar verir, lakin bu göstəricilər insan yazısında da
müəyyən hallarda müşahidə oluna bilər. Nəticədə yanlış pozitiv hallar meydana
çıxır, yəni insan tərəfindən yazılmış mətnlər süni intellekt məhsulu kimi
qiymətləndirilə bilər. Eyni zamanda, yüksək keyfiyyətli generativ modellər
tərəfindən yaradılmış mətnlər bəzi hallarda detektorlar tərəfindən aşkarlanmır
və bu da yanlış negativ nəticələrə səbəb olur.
Plagiat aşkarlama sistemlərinin məhdudiyyətləri isə daha fundamental
xarakter daşıyır. Klassik plagiat proqramları mətnlər arasında birbaşa oxşarlıq
və ya fraza uyğunluğu əsasında işləyir. Onların əsas məqsədi mövcud mənbələrdən
kopyalanmış hissələri aşkar etməkdir. Lakin AI tərəfindən yaradılan mətnlər
adətən heç bir konkret mənbədən birbaşa köçürülmür; onlar öyrədilmiş modelin
daxili statistik strukturu əsasında sıfırdan generasiya olunur. Bu səbəbdən belə
mətnlər texniki olaraq “unikal” hesab olunur və plagiat sistemləri tərəfindən
aşkarlanmır.
Bundan əlavə, generativ modellər parafraz etmə qabiliyyətinə malikdir və
mövcud məzmunu struktur və ifadə baxımından dəyişdirərək yeni kimi təqdim edə
bilir. Bu isə plagiat sistemlərinin semantik səviyyədə deyil, əsasən səthi
oxşarlıq səviyyəsində işləməsi ilə əlaqəli zəifliyini daha da ön plana çıxarır.
Nəticədə, AI istifadə olunaraq hazırlanmış akademik mətnlər formal olaraq
plagiat sayılmasa da, onların müəllifliyi və orijinallığı ilə bağlı ciddi
suallar yaranır.
Həm AI detektorları, həm də plagiat proqramları müasir generativ
texnologiyaların yaratdığı çağırışlara tam adekvat cavab verə bilmir və bu
sahədə daha kompleks, semantik və kontekstual analiz metodlarının inkişafı
zəruri hesab olunur.
Məşhur süni intellekt və plagiat aşkarlama platformaları rəsmi
açıqlamalarında AI-generated məzmunun aşkarlanması ilə bağlı ciddi
məhdudiyyətləri açıq şəkildə qəbul edir və bu sahədə nəticələrin yalnız ehtimal
xarakteri daşıdığını vurğulayır. Məsələn, Turnitin
tərəfindən təqdim olunan AI writing detection sistemi rəsmi olaraq bildirir ki,
bu alət “100% dəqiqlik təmin etmir” və nəticələr “yalnız göstərici kimi
istifadə olunmalıdır”. Şirkət xüsusilə qeyd edir ki, AI detektorlarının verdiyi
nəticələr akademik qərarların yeganə əsası kimi istifadə edilməməlidir və insan
ekspert qiymətləndirməsi mütləq şəkildə prosesə daxil edilməlidir.
Eyni yanaşma OpenAI tərəfindən də ifadə
edilmişdir. OpenAI əvvəl təqdim etdiyi AI text classifier alətinin aşağı
etibarlılıq səviyyəsinə görə geri çəkildiyini rəsmi şəkildə elan etmişdir.
Şirkət bu qərarı belə əsaslandırmışdır ki, mövcud deteksiya metodları həm
yanlış pozitiv, həm də yanlış negativ nəticələr verməyə meyllidir və bu,
istifadəçilərin yanlış şəkildə ittiham olunmasına səbəb ola bilər. Bu mövqe
generativ modellərin inkişaf səviyyəsinin deteksiya texnologiyalarını
qabaqladığını göstərir.
Bundan əlavə, Grammarly və Copyleaks kimi platformalar da AI aşkarlama
funksiyalarını təqdim etsələr də, rəsmi sənədlərində bu sistemlərin yalnız
ehtimal əsaslı işlədiyini və nəticələrin mütləq həqiqət kimi qəbul edilməməli
olduğunu vurğulayırlar. Copyleaks xüsusilə qeyd edir ki, AI-generated mətnlər
“orijinal” hesab oluna bilər və plagiat yoxlaması ilə AI deteksiyası eyni
anlayış deyil.
StrikePlagiarism rəsmi mövqeyində süni intellektlə yaradılmış mətnlərin
aşkarlanmasının hələ tam etibarlı olmadığını açıq şəkildə qəbul edir və bu cür
sistemlərin yalnız köməkçi alət kimi istifadə olunmalı olduğunu vurğulayır.
Platforma bildirir ki, AI deteksiya modulu mətnin struktur xüsusiyyətlərinə və
statistik göstəricilərinə əsaslanaraq analiz aparır, lakin bu analiz nəticələri
qəti hökm deyil, ehtimal xarakterli qiymətləndirmədir.
Şirkətin rəsmi yanaşmasına görə, AI-generated mətnlər klassik plagiat
anlayışına daxil olmur, çünki bu məzmun mövcud mənbədən birbaşa köçürülmür. Bu
səbəbdən StrikePlagiarism plagiat yoxlaması ilə AI aşkarlanmasını iki fərqli
proses kimi təqdim edir. Plagiat sistemi mətnlərarası oxşarlığı müəyyən etməyə
yönəldiyi halda, AI detektorları mətnin generasiya üsulunu təxmin etməyə
çalışır. Bu isə metodoloji baxımdan daha qeyri-müəyyən və çətin problemdir.
StrikePlagiarism həmçinin qeyd edir ki, AI detektorları yanlış pozitiv
nəticələr verə bilər, yəni insan tərəfindən yazılmış mətn səhvən AI kimi
qiymətləndirilə bilər. Bu xüsusilə akademik və formal üslubda yazılmış
mətnlərdə daha tez-tez müşahidə olunur, çünki bu tip yazılar struktur
baxımından AI mətnlərinə bənzər xüsusiyyətlər daşıya bilər. Eyni zamanda, bəzi
AI-generated mətnlər detektordan keçə bilər və bu da yanlış negativ halların
mövcud olduğunu göstərir.
Platforma istifadəçilərə tövsiyə edir ki, AI deteksiya nəticələri heç vaxt
təkbaşına qərarvermə vasitəsi kimi istifadə olunmamalıdır. Akademik
qiymətləndirmə prosesində müəllimin və ya ekspertin rolu əsas olaraq qalır. Bu
yanaşma göstərir ki, hətta ixtisaslaşmış plagiat və AI analiz sistemləri belə,
süni intellektlə yaradılmış məzmunun aşkarlanmasını hələ tam həll olunmuş
problem kimi qəbul etmir.
Bu açıqlamalar göstərir ki, aparıcı platformalar belə AI məzmununun
aşkarlanmasının hələ tam həll olunmamış problem olduğunu qəbul edir. Rəsmi
mövqelərdə ortaq fikir ondan ibarətdir ki, mövcud alətlər köməkçi vasitə kimi
istifadə edilməli, lakin yekun qərar vermə prosesi yalnız avtomatlaşdırılmış
sistemlərə həvalə edilməməlidir.
Dünya ölkələrində akademik mühitdə AI deteksiyası necə nəzərə alınır?
Dünya üzrə universitetlər və akademik institutlar süni intellektlə
yaradılmış məzmunun artması fonunda bu məsələni ciddi şəkildə tənzimləməyə
çalışır, lakin ümumi yanaşma ehtiyatlı və balanslıdır. Aparıcı universitetlərdə
AI detektorlarının nəticələri birbaşa sübut kimi deyil, yalnız ilkin indikator
kimi qəbul olunur. Məsələn, ABŞ və Avropadakı bir çox ali təhsil müəssisəsi
rəsmi qaydalarında bildirir ki, AI deteksiya nəticələri tələbəyə qarşı intizam
tədbiri tətbiq etmək üçün kifayət deyil və əlavə sübutlar tələb olunur. Bu
yanaşma texnologiyanın qeyri-dəqiqliyinin qəbul edildiyini göstərir.
Xüsusilə Turnitin kimi platformaların özləri də universitetlərə tövsiyə edir ki, AI göstəricilərini “final qərar vasitəsi” kimi istifadə etməsinlər. Bir çox universitet siyasətində müəllimlərə tapşırılır ki, şübhəli hallarda tələbə ilə müsahibə aparılsın, yazı prosesinə dair sübutlar (draftlar, qeydlər) tələb olunsun və kontekstual qiymətləndirmə aparılsın.
2023-cü ildə bir neçə ABŞ universitetində tələbələr özlərinin yazdığı
esselərə görə AI istifadə etməkdə ittiham olunublar. Sonradan məlum olub ki,
istifadə edilən AI detektorları səhv nəticə verib. Bəzi hallarda tələbələr öz
yazı proseslərini sübut etmək üçün:
·
Google Docs tarixçəsini
·
qaralama versiyalarını
·
müəllim qarşısında şifahi izahlarını təqdim
etməli olublar
Bu hadisələrdən sonra bir çox universitet AI detektorlarına etibar
səviyyəsini azaltmağa başlayıb.
2023-cü ildə University of Sydney daxilində AI deteksiya alətlərinin tətbiqi
zamanı bəzi tələbələrin yazdığı işlər süni intellekt tərəfindən hazırlanmış
kimi işarələnmişdir. Aparılan daxili qiymətləndirmələr göstərmişdir ki, bu
nəticələrin bir hissəsi yanlış pozitiv xarakter daşıyır. Universitet rəhbərliyi
bundan sonra AI detektorlarının yalnız yardımçı vasitə kimi istifadə edilməsini
və heç bir halda avtomatik qərar mexanizmi olmamasını tövsiyə etmişdir.
University of Tokyo-da AI istifadəsi ilə bağlı yeni qaydaların tətbiqi
zamanı bəzi tələbələrin öz yazılarının AI kimi qiymətləndirilməsi akademik
mübahisələrə səbəb olmuşdur. Universitet bu kimi halların qarşısını almaq üçün
tələbələrdən yazı prosesini sənədləşdirməyi və şəffaflığı artırmağı tələb
etmişdir.
2024-cü ildə Technical University of Munich AI detektorlarının hüquqi və
metodoloji məhdudiyyətlərini nəzərə alaraq onların istifadəsini rəsmi şəkildə
məhdudlaşdırmışdır. Universitet qeyd etmişdir ki, bu alətlərin nəticələrinə
əsaslanaraq tələbələrə qarşı intizam tədbiri görmək etibarlı və hüquqi baxımdan
əsaslandırılmış yanaşma deyil.
Həmin xəbərləri özünüz də oxuya bilərsiniz, tapa bilərsiniz.
Washington Post-da dərc olunmuş bu məqaləni də oxuyun:
Süni intellekt detektorları akademik mühitdə geniş istifadə olunsa da, onların nəticələri tam etibarlı hesab edilmir. Bu sistemlər tez-tez yanlış pozitiv nəticələr verə bilər və buna görə universitetlər və ekspertlər onların yalnız köməkçi alət kimi istifadə olunmasını tövsiyə edir. Son qərarın verilməsi isə mütləq şəkildə insan qiymətləndirməsinə əsaslanmalıdır.
Süni intellekt detektorlarının nəticələri tam sübut kimi qəbul edilmir, çünki bu sistemlər yalnız statistik göstəricilərə əsaslanaraq ehtimal xarakterli nəticə təqdim edir.
Bu səbəbdən onların verdiyi nəticələr səhv ola bilər və tələbələr haqsız ittiham oluna bilər.
AI detektorlarının səhv nəticələr verməsi real hallarda da müşahidə olunmuşdur və bu, akademik mühitdə ciddi narahatlıq doğurur. “Bu məhsullar mükəmməl deyil” (Sarah Eaton – University of Calgary professoru, akademik dürüstlük üzrə mütəxəssis).
Eyni zamanda bu sistemlərin qərarvermə prosesində əsas rol oynamamalı olduğu vurğulanır. “Müəllimlər AI hesabatlarını qərar verən deyil, resurs kimi istifadə etməlidir və son qərarı həmişə insan verir” (Annie Chechitelli – Turnitin şirkətinin Chief Product Officer-i).
Ekspertlər bildirir ki, AI detektorlarına həddindən artıq etibar etmək düzgün deyil və bu texnologiyalar akademik qərarların avtomatlaşdırılması üçün uyğun deyil. “Bu alətlər qadağan edilməlidir və tələbələr belə vəziyyətlərə salınmamalıdır” (Timnit Gebru – Distributed AI Research Institute icraçı direktoru, AI etikası üzrə alim).
Bundan əlavə, AI detektorlarının “sübut” təqdim etmədiyi, yalnız statistik ehtimallar əsasında “təxmin” verdiyi vurğulanır. “AI detektoru sübut təqdim etmir – yalnız statistik nümunələrə əsaslanan bir ehtimaldır” (Geoffrey A. Fowler – texnologiya jurnalisti, The Washington Post).
