• За нас
  • Пишете ни!
неделя, 16 ноември, 2025
Няма резултати
Виж всички резултати
Epoch Times Bulgaria
  • България
  • Европа
  • САЩ
  • Русия
  • Китай
  • Свят
  • Култура
  • Наука
  • Дух и съзнание
  • Начин на живот
Epoch Times Bulgaria
Няма резултати
Виж всички резултати
Начало Наука и технологии

Как изкуственият интелект дава тласък на научните измами

отОутъм Шпредеман
16 ноември , 2025
Как изкуственият интелект подхранва научните измами

Илюстрация: The Epoch Times, Shutterstock

Експерти отбелязват, че ситуацията прилича на умишлено претоварване на системата: масовият поток от подвеждаща информация задушава реалната научна работа и затруднява истинските изследователи да се ориентират в данните.

Учени и специалисти по киберсигурност предупреждават, че вълна от фалшиви научни изследвания, създадени с изкуствен интелект (ИИ), незабелязано преминаха проверките за плагиатство и влизат в научната литература. Това явление застрашава доверието в научните изследвания в бъдеще, като подпомага дългогодишната дейност на т.нар. „фабрики за научни статии“, твърдят експертите.

Академичните фабрики за статии – фалшиви организации, които печелят от измислени изследвания и фалшиво авторство – са истински проблем за учените от години. Сега изкуственият интелект им действа като катализатор.

Някои експерти смятат, че за решаването на проблема са нужни структурни промени, а не само по-добри програми за засичане на плагиатство.

Мащабите на проблема са шокиращи – през 2023 г. по света са оттеглени над 10 000 научни статии, според списание Nature.

Ръкописи, измислени с големи езикови модели (LLM), наводняват множество академични области и платформи, включително Google Scholar, констатираха от университета в Борос. В предварителна публикация в medRxiv през септември изследователи от университета в Съри показаха, че LLM инструменти като ChatGPT, Gemini и Claude могат да генерират убедителни изследвания, които преминават стандартните проверки за плагиатство.

През май Диомидис Спинелис, специалист по компютърни науки и професор в Атинския икономически университет, публикува независимо проучване за съдържание, създадено от ИИ, след като откри, че името му е използвано в измислено авторство в Global International Journal of Innovative Research.

Спинелис установи, че само 5 от 53-те статии, които изследвал, показват признаци на човешко участие. При останалите 48 програмите за засичане на ИИ потвърдиха „висока вероятност“ за съдържание, създадено от изкуствен интелект.

image-5941596
Приложението и уебсайтът ChatGPT са показани на телефон и лаптоп на илюстративна снимка от 2025 г. Учени и експерти по киберсигурност предупреждават, че фалшиви изследвания, създадени с ИИ, преминават проверките за плагиатство и влизат в научните архиви, което застрашава доверието в научната работа. Джъстин Талис/AFP via Getty Images

При анализ на подобна научни публикации, създадени с ИИ и публикувани в Google Scholar, изследователи от шведски университет идентифицираха над 100 подозрителни статии.

Google не отговори на молбата за коментар от The Epoch Times.

Авторите на шведското изследване казват, че основната им загриженост при изследванията, създадени с ИИ – с човешка помощ или без такава – е че дезинформацията може да се използва за „стратегическо манипулиране“.

„Рискът от това, което наричаме „хакване на доказателства“, се увеличава драстично, когато изследвания, създадени с ИИ, се разпространяват в търсачките“, обяснява автор на изследването Бьорн Екстром. „Това може да има реални последици, защото грешни резултати могат да проникнат по-дълбоко в обществото и в още повече области.“

Екипът на шведския университет посочва, че дори статиите да бъдат оттеглени, документите с ИИ натоварват и без това претоварената система за рецензиране.

Сериозни последици

„Най-вредното въздействие от потопа от научен боклук, създаден с ИИ, ще се отрази на изследователските области, които засягат хората“, казва пред The Epoch Times Нишанши Шукла, специалист по етика на ИИ от Western Governors University.

Шукла подчертава, че когато ИИ се използва за анализ на данни, човешкият контрол и анализ са от решаващо значение.

„Когато цялото изследване се създава от ИИ, съществува риск от уеднаквяване на знанието“, казва тя.

„В близко бъдеще това означава, че всички изследвания, които следват подобни подходи и методи, са заразени от еднакви предразсъдъци и предположения, и служат само на определени групи хора. В дългосрочен план това означава липса на ново знание, а производството на знание става цикличен процес без човешко критично мислене.“

image-5941593
Човек разглежда фалшиво видео, манипулирано с изкуствен интелект от изследователи от университета Карнеги Мелън, във Вашингтон на 25 януари 2019 г. Основната загриженост при изследванията, създадени с ИИ, е че дезинформацията може да се използва за „стратегическо манипулиране“, твърдят изследователите. Александра Робинсън/AFP via Getty Images

Михал Привата, съосновател на изследователската компания за ИИ Vertus, също смята, че тенденцията към фалшива наука с ИИ е проблематична – и ефектите вече са видими.

„Истинските изследователи се давят в „шум“, рецензентите са претоварени, а цитатите се замърсяват с измислени източници. Това прави истинския научен напредък по-труден за разпознаване и потвърждаване.“ казва Привата пред The Epoch Times.

В работата си с най-новите системи за ИИ Привата е наблюдавал отблизо страничните ефекти от масово внедрените LLM, което според него е в основата на проблема.

image-5941657
Нейтън Уензлър, главен специалист по информационна сигурност в Optiv Security. С любезност на Optiv Security

„Това е логичната последица от третирането на ИИ като инструмент за повишаване на продуктивността, вместо да разберем какво всъщност е интелигентността“, казва той. „LLM, в сегашния им вид, не са построени като умове. Това са сложни системи за разпознаване на модели на повторяемост, които са изключително добри в създаването на текст, който звучи убедително – а точно това е нужно на фалшивите изследвания, за да изглеждат достоверни.“

Нейтън Уензлър, главен директор по информационна сигурност в Optiv, смята, че е застрашено бъдещето на обществените доверие.

„Колкото повече грешно или откровено фалшиво съдържание, създадено с ИИ, се добавя в уважавани списания и важни научни обзори, толкова по-еднакви са краткосрочните и дългосрочните ефекти: разрушаване на доверието“, казва Уензлър пред The Epoch Times.

Уензлър посочва, че от гледна точка на сигурността университетите сега са изправени пред различен вид заплаха, когато става въпрос за кража на интелектуална собственост.

„Наблюдавахме кибератаки от държави, които са насочени специално към кражба на изследвания от университети и научни институти. След това същите тези държави публикуват резултатите през собствените си университети, сякаш сами са провели изследванията“, казва той.

В крайна сметка Уензлър смята, че това може да има огромен финансов ефект върху организациите, които разчитат на финансиране за развитие на легитимни научни изследвания, технологии, здравеопазване и други области.

image-5941594
Учени разработват самовъзпроизвеждаща се РНК ваксина в микробиологична лаборатория в Медицинското училище на Вашингтонския университет в Сиатъл на 10 декември 2020 г. Експертите предупреждават, че сега университетите са изправени пред повишени рискове от кражба на интелектуална собственост чрез кибератаки на държави, подпомагани от ИИ. Карен Дюси/Getty Images

Уензлър описва възможен реален пример: „ИИ лесно може да се използва за подсилване на тези кибератаки – да променя съдържанието на откраднатите изследвания точно дотолкова, че да създаде илюзията за уникално и отделно съдържание, или да създава фалшив разказ, че съществуващите изследвания са дефектни чрез измислени противоположни данни, за да подкопае достоверността на оригиналните данни и заключения.

„Потенциалното финансово въздействие е огромно, но начинът, по който това може да повлияе на напредъка, от който се възползват хората по целия свят, е неизмерим.“

Привата отбелязва, че голяма част от обществото вече поставя под въпрос академичните среди.

„Това, което ме плаши, е че това ще ускори съмненията на хората към научните институции“, казва той. „Хората вече имат доказателства, че системата може да се манипулира в големи мащаби. Смятам, че това е опасно за обществото.“

Потокът от фалшиви научни статии, създадени с ИИ, идва в момент, когато общественото доверие в науката остава по-ниско от това преди пандемията от COVID-19. Анализ на Изследователския център „Пю“ от 2024 г. показа, че само 26% от анкетираните имат голямо доверие в учените да действат в интерес на обществото. 51% заявяват, че имат умерено доверие – за сравнение, процентът на анкетираните, изразили същото ниво доверие в науката през 2020 г., беше 87%.

Същевременно американците станаха недоверчиви към развитието на ИИ. Скорошно изследване на института „Брукингс“ установи, че участниците, запознати с информация за напредъка на ИИ, станаха недоверчиви по различни показатели – лингвистика, медицина и запознанства – в сравнение с напредъка извън ИИ в същите области.

Шукла смята, че приливната вълна от изследвания, създадени с ИИ, е резултат от натиска в академичните среди постоянно да се публикуват нови статии.

„При такива обстоятелства, когато броят статии и цитати определя академичната кариера, изследванията, създадени с ИИ, служат като бърз начин за изпреварване“, казва тя. „Затова първата стъпка за спиране на изследванията, създадени с ИИ, е да се намали натискът върху публикуването и да имаме по-добри критерии за измерване на академичния успех.“

Шукла подчертава важността на кампании за повишаване на осведомеността, насочени към изследванията, създадени с ИИ, заедно с поддържането на „стабилни стандарти“ в академичното отчитане и проверката на автентичността.

Международният научен съвет посочва, че публикуването на научни трудове определя класациите на университетите и кариерното развитие. Този „безпощаден натиск“ за публикуване на изследвания на всяка цена допринася за нарастването на фалшивите данни.

„Ако това не се промени, целият изследователски пейзаж може да се измести към по-слаби стандарти, което ще попречи на жизненоважния напредък в области като медицината, технологиите и климатичната наука“, заявява Международният научен съвет.

За да влоши нещата, Привата казва, че когато фалшиви данни, създадени с ИИ, се публикуват, информацията може да се използва за обучаване на нови модели ИИ, създавайки порочен кръг от дезинформация.

„Трябва да има последици“, казва той.

image-5941595
Студент седи в лекционна зала в края на час в Тексаския университет в Остин на 22 февруари 2024 г. Акцентът върху обема публикации в академичните среди отдавна се свързва със сигурността на работното място и финансирането, но Михал Привата смята, че системата на стимули трябва да се промени, като изследователите и институциите носят финансова отговорност за фалшифицирани трудове. Брандън Бел/Getty Images

В момента почти всички стимули са за публикуване на възможно най-много академичен материал. Обемът публикувано съдържание на университетско ниво отдавна се свързва със сигурност на работното място и достъпа до финансиране на проекти.

„Решението не са по-добри инструменти за засичане [на ИИ] – това е като оръжейна надпревара, която ще бъда загубена“, казва Привата. „Вече се създават инструменти, които да заобикалят засичането на ИИ.“

Той смята, че структурата на стимулите за академично публикуване трябва да се промени изцяло, като изследователите и институциите носят финансова отговорност за публикуването на фалшифицирани трудове.

„Спрете да награждавате обема публикации и финансирайте въз основа на качеството на цитиранията и реалното въздействие“, казва той.

Уензлър посочва, че въпреки че оценяване от независими експерти все още е „златният стандарт“ за валидиране на резултатите от изследванията в списанията, от решаващо значение е групите, които правят проверките, да инвестират необходимото време и технологии.

„Подложете изследването на сериозни тестове и проверете всички посочени източници“, казва той.

Уензлър смята, че е нужна по-широка координация между академичните институции и правителствени инвестиции в подкрепа на интегритета на изследванията.

За съжаление системата за партньорска проверка има своите предизвикателства. Заради нарастващия поток от съдържание и ограниченото време умората на рецензентите е често срещана. Освен това има доказателства, че ИИ играе все по-голяма роля в процеса на рецензиране, което предизвиква нова вълна от загриженост в научната общност, според статия в Nature от март.

„Изисквайте оценяване от независими експерти на живо с публични самоличности на рецензентите“, казва Привата. „Също така, финансирайте оценяванете от независими експерти правилно, вместо да очаквате безплатен труд.“

Споделете тази статия

Вашият коментар Отказ

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Последвайте ни във Фейсбук

НАЙ-ТЪРСЕНИ ДНЕС

kak se pravi kiselo zele s morska sol

Изпитана рецепта за кисело зеле в бидон

0
0
Ивелин Михайлов от парламентарната трибуна на Народното събрание. Той не пожела да влезе в първата парламентарна група на партия "Величие" през 2024 г. Тя не удържа на натиска и се разпадна. Сега се прави втори опит тази парламентарна група да спре да съществува. Снимки: Прес център на партия "Величие"

„Не сме за продан“, мисли Ивелин Михайлов – за задкулисието, фалшификациите, надеждата

0
0
Селска агнешка чорба на баба

Селска агнешка чорба с ориз

0
0
крем супа от тиква

Вкусна крем супа от тиква цигулка

0
0
Плодове хинап (снимка: Ева Иванова)

Хинап (китайска фурма) – 10 ползи за здравето

0
0
Оригинален родопски пататник

Вкусен родопски пататник на тиган – лесна рецепта

0
0
Техническата демонстрация на "Шън Юн" за Средноесенния фестивал 2025 ще се излъчва ексклузивно в Gan Jing World

GJW ще излъчи Представяне на техниките от Есенния фестивал на „Шeн Юн“ за 2025

0
0

Свързани Публикации

(снимка: Tumisu/Pixabay.com)

От паспорт към биометрична идентичност: глобалната реформа в авиосектора набира скорост

0
0
Акционерите на Tesla одобриха заплатата от 1 трилион долара на Илон Мъск

Акционерите на Tesla одобриха пакета за възнаграждение на Илон Мъск от 1 трилион долара

0
0
Слънчевата експанзия в Европа разкри проблеми в остаряващата електроенергийна мрежа, твърдят експерти

Бумът на слънчевата енергия в Европа показа проблемите в остарялата електрическа мрежа, твърдят експерти

0
0
Мъск може да напусне Tesla, ако акционерите отхвърлят плана му за 1 трилион долара възнаграждение, предупреди председателят

Мъск може да напусне Tesla, ако акционерите отхвърлят неговия план за възнаграждение от 1 трилион долара, предупреди председателят на борда

0
0
От мигрена до макулна дегенерация: Как ежедневните ви избори пазят зрението

От мигрена до макулна дегенерация: Как ежедневните ни избори да пазят зрението ни

0
0
МАЕ прогнозира растеж на световното търсене на петрол и газ до 2050 година

Международната агенция по енергетика прогнозира растеж на световното търсене на петрол и газ до 2050 година

0
0
Ивелин Михайлов от парламентарната трибуна на Народното събрание. Той не пожела да влезе в първата парламентарна група на партия "Величие" през 2024 г. Тя не удържа на натиска и се разпадна. Сега се прави втори опит тази парламентарна група да спре да съществува. Снимки: Прес център на партия "Величие"

„Не сме за продан“, мисли Ивелин Михайлов – за задкулисието, фалшификациите, надеждата

0
0
Нов мост се срути в китайската провинция Съчуан само 10 месеца след откриването му

Мост в Китай се срути само 10 месеца след въвеждане в експлоатация

0
0
Ерика Кърк разказва за последните мигове с Чарли преди атентата срещу него

Ерика Кърк разказва за последните мигове с Чарли преди атентата срещу него

0
0
Гриша Атанасов и Емануел Икономов

Писателят Емануел Икономов представи новата си книга „Баснословник“

0
0
Epoch Times лого
Facebook X-twitter Goodreads-g Youtube Instagram Telegram
  • Последни новини
  • Направете дарение

35 страни, 21 езика

  • English
  • 中文
  • Español
  • עברית
  • 日本語
  • 한국어
  • Bahasa Indonesia
  • Français
  • Deutsch
  • Italiano
  • Português
  • Svenska
  • Nederlands
  • Русский
  • Українська
  • Română
  • Česky
  • Slovenščina
  • Polski
  • Türkçe
  • فارسی
  • За нас
  • Авторски права
  • Условия за ползване
  • Пишете ни!
  • Поверителност на информацията
  • България
  • Свят
  • Китай
    • COVID-19 и Ваксинация
  • Култура и изкуство
  • Наука и технологии
  • Начин на живот
  • Мнения
  • За нас
  • Авторски права
  • Условия за ползване
  • Пишете ни!
  • Поверителност на информацията

Copyright © 2024 Epochtimes.bg | Всички права запазени Epochtimes.bg не носи отговорност за съдържанието на външни сайтове

Няма резултати
Виж всички резултати
  • България
  • Европа
  • САЩ
  • Русия
  • Китай
  • Свят
  • Култура
  • Наука
  • Дух и съзнание
  • Начин на живот

© 2019 Epoch Times България.

Epoch Times Bulgaria