Експерти отбелязват, че ситуацията прилича на умишлено претоварване на системата: масовият поток от подвеждаща информация задушава реалната научна работа и затруднява истинските изследователи да се ориентират в данните.
Учени и специалисти по киберсигурност предупреждават, че вълна от фалшиви научни изследвания, създадени с изкуствен интелект (ИИ), незабелязано преминаха проверките за плагиатство и влизат в научната литература. Това явление застрашава доверието в научните изследвания в бъдеще, като подпомага дългогодишната дейност на т.нар. „фабрики за научни статии“, твърдят експертите.
Академичните фабрики за статии – фалшиви организации, които печелят от измислени изследвания и фалшиво авторство – са истински проблем за учените от години. Сега изкуственият интелект им действа като катализатор.
Някои експерти смятат, че за решаването на проблема са нужни структурни промени, а не само по-добри програми за засичане на плагиатство.
Мащабите на проблема са шокиращи – през 2023 г. по света са оттеглени над 10 000 научни статии, според списание Nature.
Ръкописи, измислени с големи езикови модели (LLM), наводняват множество академични области и платформи, включително Google Scholar, констатираха от университета в Борос. В предварителна публикация в medRxiv през септември изследователи от университета в Съри показаха, че LLM инструменти като ChatGPT, Gemini и Claude могат да генерират убедителни изследвания, които преминават стандартните проверки за плагиатство.
През май Диомидис Спинелис, специалист по компютърни науки и професор в Атинския икономически университет, публикува независимо проучване за съдържание, създадено от ИИ, след като откри, че името му е използвано в измислено авторство в Global International Journal of Innovative Research.
Спинелис установи, че само 5 от 53-те статии, които изследвал, показват признаци на човешко участие. При останалите 48 програмите за засичане на ИИ потвърдиха „висока вероятност“ за съдържание, създадено от изкуствен интелект.

При анализ на подобна научни публикации, създадени с ИИ и публикувани в Google Scholar, изследователи от шведски университет идентифицираха над 100 подозрителни статии.
Google не отговори на молбата за коментар от The Epoch Times.
Авторите на шведското изследване казват, че основната им загриженост при изследванията, създадени с ИИ – с човешка помощ или без такава – е че дезинформацията може да се използва за „стратегическо манипулиране“.
„Рискът от това, което наричаме „хакване на доказателства“, се увеличава драстично, когато изследвания, създадени с ИИ, се разпространяват в търсачките“, обяснява автор на изследването Бьорн Екстром. „Това може да има реални последици, защото грешни резултати могат да проникнат по-дълбоко в обществото и в още повече области.“
Екипът на шведския университет посочва, че дори статиите да бъдат оттеглени, документите с ИИ натоварват и без това претоварената система за рецензиране.
Сериозни последици
„Най-вредното въздействие от потопа от научен боклук, създаден с ИИ, ще се отрази на изследователските области, които засягат хората“, казва пред The Epoch Times Нишанши Шукла, специалист по етика на ИИ от Western Governors University.
Шукла подчертава, че когато ИИ се използва за анализ на данни, човешкият контрол и анализ са от решаващо значение.
„Когато цялото изследване се създава от ИИ, съществува риск от уеднаквяване на знанието“, казва тя.
„В близко бъдеще това означава, че всички изследвания, които следват подобни подходи и методи, са заразени от еднакви предразсъдъци и предположения, и служат само на определени групи хора. В дългосрочен план това означава липса на ново знание, а производството на знание става цикличен процес без човешко критично мислене.“

Михал Привата, съосновател на изследователската компания за ИИ Vertus, също смята, че тенденцията към фалшива наука с ИИ е проблематична – и ефектите вече са видими.
„Истинските изследователи се давят в „шум“, рецензентите са претоварени, а цитатите се замърсяват с измислени източници. Това прави истинския научен напредък по-труден за разпознаване и потвърждаване.“ казва Привата пред The Epoch Times.
В работата си с най-новите системи за ИИ Привата е наблюдавал отблизо страничните ефекти от масово внедрените LLM, което според него е в основата на проблема.

„Това е логичната последица от третирането на ИИ като инструмент за повишаване на продуктивността, вместо да разберем какво всъщност е интелигентността“, казва той. „LLM, в сегашния им вид, не са построени като умове. Това са сложни системи за разпознаване на модели на повторяемост, които са изключително добри в създаването на текст, който звучи убедително – а точно това е нужно на фалшивите изследвания, за да изглеждат достоверни.“
Нейтън Уензлър, главен директор по информационна сигурност в Optiv, смята, че е застрашено бъдещето на обществените доверие.
„Колкото повече грешно или откровено фалшиво съдържание, създадено с ИИ, се добавя в уважавани списания и важни научни обзори, толкова по-еднакви са краткосрочните и дългосрочните ефекти: разрушаване на доверието“, казва Уензлър пред The Epoch Times.
Уензлър посочва, че от гледна точка на сигурността университетите сега са изправени пред различен вид заплаха, когато става въпрос за кража на интелектуална собственост.
„Наблюдавахме кибератаки от държави, които са насочени специално към кражба на изследвания от университети и научни институти. След това същите тези държави публикуват резултатите през собствените си университети, сякаш сами са провели изследванията“, казва той.
В крайна сметка Уензлър смята, че това може да има огромен финансов ефект върху организациите, които разчитат на финансиране за развитие на легитимни научни изследвания, технологии, здравеопазване и други области.

Уензлър описва възможен реален пример: „ИИ лесно може да се използва за подсилване на тези кибератаки – да променя съдържанието на откраднатите изследвания точно дотолкова, че да създаде илюзията за уникално и отделно съдържание, или да създава фалшив разказ, че съществуващите изследвания са дефектни чрез измислени противоположни данни, за да подкопае достоверността на оригиналните данни и заключения.
„Потенциалното финансово въздействие е огромно, но начинът, по който това може да повлияе на напредъка, от който се възползват хората по целия свят, е неизмерим.“
Привата отбелязва, че голяма част от обществото вече поставя под въпрос академичните среди.
„Това, което ме плаши, е че това ще ускори съмненията на хората към научните институции“, казва той. „Хората вече имат доказателства, че системата може да се манипулира в големи мащаби. Смятам, че това е опасно за обществото.“
Потокът от фалшиви научни статии, създадени с ИИ, идва в момент, когато общественото доверие в науката остава по-ниско от това преди пандемията от COVID-19. Анализ на Изследователския център „Пю“ от 2024 г. показа, че само 26% от анкетираните имат голямо доверие в учените да действат в интерес на обществото. 51% заявяват, че имат умерено доверие – за сравнение, процентът на анкетираните, изразили същото ниво доверие в науката през 2020 г., беше 87%.
Същевременно американците станаха недоверчиви към развитието на ИИ. Скорошно изследване на института „Брукингс“ установи, че участниците, запознати с информация за напредъка на ИИ, станаха недоверчиви по различни показатели – лингвистика, медицина и запознанства – в сравнение с напредъка извън ИИ в същите области.
Шукла смята, че приливната вълна от изследвания, създадени с ИИ, е резултат от натиска в академичните среди постоянно да се публикуват нови статии.
„При такива обстоятелства, когато броят статии и цитати определя академичната кариера, изследванията, създадени с ИИ, служат като бърз начин за изпреварване“, казва тя. „Затова първата стъпка за спиране на изследванията, създадени с ИИ, е да се намали натискът върху публикуването и да имаме по-добри критерии за измерване на академичния успех.“
Шукла подчертава важността на кампании за повишаване на осведомеността, насочени към изследванията, създадени с ИИ, заедно с поддържането на „стабилни стандарти“ в академичното отчитане и проверката на автентичността.
Международният научен съвет посочва, че публикуването на научни трудове определя класациите на университетите и кариерното развитие. Този „безпощаден натиск“ за публикуване на изследвания на всяка цена допринася за нарастването на фалшивите данни.
„Ако това не се промени, целият изследователски пейзаж може да се измести към по-слаби стандарти, което ще попречи на жизненоважния напредък в области като медицината, технологиите и климатичната наука“, заявява Международният научен съвет.
За да влоши нещата, Привата казва, че когато фалшиви данни, създадени с ИИ, се публикуват, информацията може да се използва за обучаване на нови модели ИИ, създавайки порочен кръг от дезинформация.
„Трябва да има последици“, казва той.

В момента почти всички стимули са за публикуване на възможно най-много академичен материал. Обемът публикувано съдържание на университетско ниво отдавна се свързва със сигурност на работното място и достъпа до финансиране на проекти.
„Решението не са по-добри инструменти за засичане [на ИИ] – това е като оръжейна надпревара, която ще бъда загубена“, казва Привата. „Вече се създават инструменти, които да заобикалят засичането на ИИ.“
Той смята, че структурата на стимулите за академично публикуване трябва да се промени изцяло, като изследователите и институциите носят финансова отговорност за публикуването на фалшифицирани трудове.
„Спрете да награждавате обема публикации и финансирайте въз основа на качеството на цитиранията и реалното въздействие“, казва той.
Уензлър посочва, че въпреки че оценяване от независими експерти все още е „златният стандарт“ за валидиране на резултатите от изследванията в списанията, от решаващо значение е групите, които правят проверките, да инвестират необходимото време и технологии.
„Подложете изследването на сериозни тестове и проверете всички посочени източници“, казва той.
Уензлър смята, че е нужна по-широка координация между академичните институции и правителствени инвестиции в подкрепа на интегритета на изследванията.
За съжаление системата за партньорска проверка има своите предизвикателства. Заради нарастващия поток от съдържание и ограниченото време умората на рецензентите е често срещана. Освен това има доказателства, че ИИ играе все по-голяма роля в процеса на рецензиране, което предизвиква нова вълна от загриженост в научната общност, според статия в Nature от март.
„Изисквайте оценяване от независими експерти на живо с публични самоличности на рецензентите“, казва Привата. „Също така, финансирайте оценяванете от независими експерти правилно, вместо да очаквате безплатен труд.“
















