Европол, правоохранителната агенция на Европейския съюз, предупреди за сериозните последици от използването на изкуствения интелект ChatGPT за киберпрестъпления и други злонамерени деяния.
Европол заяви, че финансираният от Microsoft софтуер за изкуствен интелект, може да бъде използван за атаки с фалшива самоличност или фишинг, както и за разпространение на дезинформация.
От софтуера може да бъде поискано да създаде текст по много възможни теми и той го прави, като използва огромен набор от знания, на които е бил „обучен“ по време на разработването си. Резултатът може да бъде автентично изглеждаща статия, в която са използвани подробни знания, притежавани преди това само от експерти в съответната област.
Софтуерът с изкуствен интелект може също така да пише есета, стихотворения или компютърен код, когато му бъде поставена такава задача, и е наричан най-значимият напредък в областта на технологиите след появата на iPhone преди повече от 15 години.
Предупреждението идва в момент, когато бяха повдигнати множество правни и етични въпроси, свързани с използването на софтуер с изкуствен интелект.
„Тъй като възможностите на големите езикови модели (large language models – LLMs) като ChatGPT активно се усъвършенстват, потенциалната експлоатация от страна на престъпници на този вид системи с ИИ предоставя мрачна перспектива“, заяви Европол при представянето на първия си технологичен доклад.
В него се посочва опасното приложение на ChatGPT в три области на криминалната дейност.
„Способността на ChatGPT да изготвя изключително реалистичен текст го прави полезен инструмент за целите на фишинга“, заяви Европол.
Фишинг („phishing“) – понятие, идващо от умишлено променената английска дума „fishing“(риболов) – представлява злонамерен опит за придобиване на чувствителна информация като потребителско име, парола и детайли на кредитна карта, като извършителят приема чужда самоличност при електронна комуникация (бел. прев.).
Със способността си да възпроизвежда езикови модели, които наподобяват стила на говорене на конкретни лица или групи, чатботът може да се използва от престъпниците за таргетиране жертви, посочиха от агенцията на ЕС.
ChatGPT може да се използва и като идеален инструмент за създаване на дезинформация.
„Той позволява на потребителите да генерират и разпространяват съобщения, отразяващи определен наратив, със сравнително малко усилия.“
Престъпниците с малко технически познания биха могли да се обърнат към ChatGPT и за създаване на зловредни кодове, заяви Европол.
Междувременно Google пусна своя конкурент на ChatGPT за тестване в Обединеното кралство и Съединените щати – чатботът Bard.
Google обяви разработването на Bard миналия месец, само две седмици след като Microsoft обяви нова инвестиция в размер на няколко милиарда долара в OpenAI – създателят на ChatGPT и други инструменти за ИИ.
Microsoft инвестира милиарди в OpenAI от 2019 г. насам.
Собственикът на Twitter Илон Мъск определи изкуствения интелект като един от „най-големите рискове“, пред които е изправена човешката цивилизация.
„Честно казано, мисля, че трябва да въведем правила за безопасност на ИИ. Помислете за всяка технология, която е потенциално опасна за хората, като например самолетите или, автомобилите или медицината. Имаме регулаторни органи, които контролират обществената безопасност на автомобилите, самолетите и медицината“, каза Мъск.
„Мисля, че вероятно трябва да имаме подобен вид регулаторен надзор за изкуствения интелект, защото според мен той всъщност представлява по-голям риск за обществото, отколкото автомобилите, самолетите или медицината.“
„Притесненията ми са, че при изкуствения интелект… ако нещо се обърка, реакцията може да е твърде бавна от регулаторна гледна точка“, добави той.
Ройтерс, Ефтимис Орайопулос и Брайън Юнг допринесоха за този материал.