MCA-PRESS | Inteligjenca Artificiale shkakton plagjiaturë përtej ‘copy & paste’
2149
post-template-default,single,single-post,postid-2149,single-format-standard,ajax_fade,page_not_loaded,,qode-title-hidden,qode_grid_1300,hide_top_bar_on_mobile_header,qode-content-sidebar-responsive,qode-theme-ver-16.6,qode-theme-bridge,disabled_footer_bottom,wpb-js-composer js-comp-ver-5.5.1,vc_responsive,elementor-default,elementor-kit-2266

Inteligjenca Artificiale shkakton plagjiaturë përtej ‘copy & paste’

Studentët mund të duhet të mendojnë dy herë përpara se të përdorin një chatbot për të përfunduar detyrën e tyre të radhës. Modelet gjuhësore që gjenerojnë tekst në përgjigje të kërkesave të përdoruesve, plagjiaturën e përmbajtjes në më shumë se një mënyrë, sipas një ekipi kërkimor të udhëhequr nga Penn State që kreu studimin e parë për të ekzaminuar drejtpërdrejt fenomenin.

“Plagjiatura vjen në shije të ndryshme,” -tha Dongwon Lee, profesor i shkencave të informacionit dhe teknologjisë në Penn State. “Ne donim të shihnim nëse modelet gjuhësore jo vetëm që kopjojnë, por përdorin forma më të sofistikuara të plagjiaturës pa e kuptuar atë.”

Studiuesit u fokusuan në identifikimin e tre formave të plagjiaturës: fjalë për fjalë, ose kopja e drejtpërdrejtë e përmbajtjes; parafrazoni, ose riformuloni dhe ristrukturoni përmbajtjen pa cituar burimin origjinal, ose duke përdorur idenë kryesore nga një tekst pa atributin të duhur. Ata ndërtuan një program për zbulimin e automatizuar të plagjiaturës dhe e testuan atë kundër GPT-2 të OpenAI sepse të dhënat e trajnimit të modelit gjuhësor janë të disponueshme në internet, duke i lejuar studiuesit të krahasojnë tekstet e krijuara me 8 milionë dokumentet e përdorura për të trajnuar paraprakisht GPT-2. Shkencëtarët përdorën 210,000 tekste të krijuara për të testuar për plagjiaturë në modele gjuhësore të para-trajnuara dhe modele gjuhësore të akorduara mirë, ose modele të trajnuara më tej për t’u fokusuar në fusha specifike tematike. Në këtë rast, ekipi rregulloi mirë tre modele gjuhësore për t’u fokusuar në dokumentet shkencore, artikujt shkencorë që lidhen me COVID-19 dhe pretendimet për patentë. Ata përdorën një motor kërkimi me burim të hapur për të tërhequr 10 dokumentet kryesore të trajnimit më të ngjashëm me secilin tekst të gjeneruar dhe modifikuan një algoritëm ekzistues të shtrirjes së tekstit për të zbuluar më mirë raste të fjalës, parafrazimit dhe plagjiaturës së ideve. Ekipi zbuloi se modelet gjuhësore kryen të tre llojet e plagjiaturës dhe se sa më i madh të jetë grupi i të dhënave dhe parametrat e përdorur për të trajnuar modelin, aq më shpesh ndodhte plagjiaturë. Ata vunë në dukje gjithashtu se modelet gjuhësore të akorduara reduktuan plagjiaturën fjalë për fjalë, por rritën rastet e parafrazimit dhe plagjiaturës së ideve. Përveç kësaj, ata identifikuan raste të modelit gjuhësor që ekspozonte informacionin privat të individëve përmes të tre formave të plagjiaturës.

“Njerëzit ndjekin modele të mëdha gjuhësore sepse sa më i madh bëhet modeli, aftësitë e gjenerimit rriten,” tha autori kryesor Jooyoung Lee, student i doktoraturës në Kolegjin e Shkencave të Informacionit dhe Teknologjisë në Penn State. “Në të njëjtën kohë, ata po rrezikojnë origjinalitetin dhe kreativitetin e përmbajtjes brenda korpusit të trajnimit. Kjo është një gjetje e rëndësishme.”

Studimi thekson nevojën për më shumë kërkime mbi gjeneruesit e teksteve dhe pyetjet etike dhe filozofike që ato parashtrojnë, sipas studiuesve. “Edhe pse rezultati mund të jetë tërheqës dhe modelet gjuhësore mund të jenë argëtuese për t’u përdorur dhe të duken produktive për detyra të caktuara, kjo nuk do të thotë se ato janë praktike,” tha Thai Le, asistent profesor i shkencave kompjuterike dhe informacionit në Universitetin e Misisipit. i cili filloi të punojë në projekt si kandidat për doktoraturë në Penn State. “Në praktikë, ne duhet të kujdesemi për çështjet etike dhe të të drejtave të autorit që paraqesin gjeneruesit e tekstit.” Megjithëse rezultatet e studimit zbatohen vetëm për GPT-2, procesi automatik i zbulimit të plagjiaturës që studiuesit krijuan mund të zbatohet në modelet më të reja gjuhësore si ChatGPT për të përcaktuar nëse dhe sa shpesh këto modele plagjiaturën përmbajtjen e trajnimit. Testimi për plagjiaturë, megjithatë, varet nga zhvilluesit që i bëjnë të dhënat e trajnimit të aksesueshme publikisht, thanë studiuesit. Studimi aktual mund të ndihmojë studiuesit e AI të ndërtojnë modele gjuhësore më të fuqishme, të besueshme dhe të përgjegjshme në të ardhmen, sipas shkencëtarëve. Tani për tani, ata i nxisin individët të tregojnë kujdes kur përdorin gjeneruesit e tekstit.

“Kërkuesit dhe shkencëtarët e AI po studiojnë se si t’i bëjnë modelet gjuhësore më të mira dhe më të fuqishme, ndërkohë, shumë individë po përdorin modele gjuhësore në jetën e tyre të përditshme për detyra të ndryshme produktiviteti,” tha Jinghui Chen, asistent profesor i shkencave të informacionit dhe teknologjisë në Penn State. “Ndërsa përdorimi i modeleve gjuhësore si një motor kërkimi ose një tejmbushje pirg për të korrigjuar kodin është ndoshta në rregull, për qëllime të tjera, pasi modeli i gjuhës mund të prodhojë përmbajtje plagjiaturë, mund të rezultojë në pasoja negative për përdoruesin.” Rezultati i plagjiaturës nuk është diçka e papritur, shtoi Dongwon Lee.

“Si një papagall stokastik, ne mësuam modelet gjuhësore për të imituar shkrimet njerëzore pa i mësuar se si të mos bëjnë plagjiaturë ”, -tha ai. “Tani, është t’i mësojmë të shkruajë më mirë dhe ne kemi një rrugë të gjatë për të bërë.”

 

No Comments

Post A Comment