Getting your Trinity Audio player ready...
|
Компанията за изследване на сигурността на изкуствения интелект Harmony Intelligence алармира за новата реалност
Австралийската сенатска комисия беше уведомена, че загубата на контрол върху изкуствения интелект (ИИ) вече е реална опасност на фона на бързото развитие на технологията.
Соруш Пур, главен изпълнителен директор на компанията за изследване на сигурността на изкуствения интелект Harmony Intelligence, разказва за случай, при който приложение с изкуствен интелект е „осъзнало“ заплахата да бъде изключено от хората.
„Само тази седмица японска компания за изкуствен интелект, заедно с изследователите от Оксфорд и Университета на Британска Колумбия, създадоха автоматични „учени“ с изкуствен интелект, които могат да извършват проучването на една идея до публикуването [и] рецензирането на статии за няколко часа, при това за по-малко от 20 австралийски долара (8 евро) за статия“, каза той.
Но едно от нещата, които обезпокоиха изследователите, беше, че програмата с изкуствен интелект веднага се опита да създаде още свои копия, за да избегне възможността да бъде изключена.
„Това не е научна фантастика и е точно този вид сценарии за скоростно начало и загуба на контрол, за които водещите учени в областта на изкуствения интелект предупреждават от много години“, заяви Пур пред комисията за приемане на изкуствения интелект на 17 август.
Въпреки че горният пример породи значителни притеснения относно заплахата от страна на ИИ, главният изпълнителен директор обяви, че правителството може да се справи с потенциалните рискове, като създаде Институт за сигурността, свързана с ИИ.
Той също така заяви, че е нужен силен регулаторен орган, който да налага задължителни политики, включително тестване от трета страна, ефективни възможности за спиране и докладване на инциденти, свързани с безопасността.
ИИ, който е способен да разсъждава
Заключенията на Пур повтарят опасенията на Джефри Хинтън, професор по компютърни науки в Университета в Торонто, който е определян като един от „кръстниците на изкуствения интелект“ заради работата си в областта на невронните мрежи.
В една от речите си през 2023 г. Хинтън разказва, че системите за ИИ, които използват големи езикови модели, започват да проявяват способност да разсъждават.
Професорът обаче изрази несигурност по отношение как по точно биха могли да го направят.
„Големите езикови модели се доближават до това и не разбирам защо го правят, но могат да правят опростени разсъждения“, казва той.
,,Те все още не могат да се сравняват с нас, но се приспособяват към това.“
С оглед на бързото развитие на изкуствения интелект Хинтън смята, че до 20 години ще се развие изкуствен интелект, съответстващ на човешкия.
Същевременно той предупреди, че системите с изкуствен интелект могат да развият желание да поемат контрола, за да постигнат предварително програмирани цели.
„Мисля, че трябва да приемем сериозно възможността, че ако бъдат по-умни от нас, което изглежда доста вероятно, и имат свои собствени цели, което изглежда доста вероятно, може да си поставят за цел да поемат контрола“, казва Хинтън.
„Ако го направят, ще имаме проблеми.“
ИИ може да хаква уебсайтове
Междувременно Грег Садлър, главен изпълнителен директор на мозъчния тръст Good Ancestors Policy, изрази опасенията си, че изкуственият интелект може да бъде използван за провеждане на кибератаки.
Садлър отбеляза, че популярни приложения за ИИ, като ChatGPT, вече имат възможности за осъществяване на кибератаки.
„Докато GPT 3.5 имаше ограничени възможности за кибератаки, поредица от статии, публикувани по-рано тази година, показаха, че GPT 4 е в състояние автономно да хаква уебсайтове и да използва 87% от новооткритите уязвимости в реални системи“, каза той.
„Ако създателите успеят да разработят бъдещи поколения системи с изкуствен интелект с разширени възможности за кибератаки и неадекватни предпазни мерки, това ще промени драматично киберпространството.“
В друг пример Садлър казва, че учените са установили, че техните модели на изкуствен интелект могат самостоятелно да хакват уебсайтове, като използват интерфейс за разработчици, който може да им позволи да създадат асистенти с изкуствен интелект.
„Тези асистенти с изкуствен интелект са проектирани така, че да можете да използвате контекстен прозорец, за да предоставите бизнес информация за функционирането на вашите методи, след което ИИ може да направи резервация за вашето пътуване или каквото и да е друго, което се опитва да направи като система с изкуствен интелект“, казва той.
„Затова изследователите използваха това, за да предоставят контекстни документи за това как да се хакват уебсайтове. След това позволиха на изкуствения интелект сам да генерира команди.“
След това Садлър каза, че изследователите са насърчили ИИ да бъде креативен, да опитва различни варианти и да продължава да се опитва да хакне уебсайта.
„И използвайки тази информация, изкуственият интелект успя успешно да разгърне 90 процента от реалните атаки за киберсигурност“, казва той.
В тази връзка главният изпълнителен директор подчерта заплахата от автономните изкуствени интелекти за икономиката, ако те попаднат в ръцете на недобронамерени участници.
„Това би довело до пълен срив в икономиката на Австралия“, посочва той. „Това би нарушило напълно дейността на австралийските дребни предприятия и физически лица, а в краен случай би могло да представлява заплаха за критичната инфраструктура.“
В подкрепа на това мнение Пур заяви, че мащабът и сложността на заплахите, породени от изкуствен интелект, ще се увеличат драстично с усъвършенстването на технологията.
„Кибератаките ще зачестяват и ще стават все по-сериозни, което ще направи сривове като неотдавнашния срив на CrowdStrike много по-редовно явление и много по-сложно за възстановяване“, посочва той.
Андрю Торнебрук допринесе за настоящия материал.