• За нас
  • Пишете ни!
събота, 22 ноември, 2025
Няма резултати
Виж всички резултати
Epoch Times Bulgaria

Warning: sprintf(): Too few arguments in /home/epochtimes.bg/public_html/wp-includes/nav-menu-template.php on line 285
Epoch Times Bulgaria
Няма резултати
Виж всички резултати
Начало Наука и технологии

Елиезер Юдковски за AI: Ако това продължи, всички ще умрем

отНавин Атрапули
5 април , 2023
Елиезер Юдковски за AI: Ако това продължи, всички ще умрем

Робот с изкуствен интелект, озаглавен "Alter 3: Offloaded Agency", по време на фотосесия за популяризиране на изложбата "AI: More than Human" в центъра Barbican в Лондон на 15 май 2019 г. (Ben Stansall/AFP via Getty Images)

Блогърът, теоретик и писател на тема човешки и изкуствен интелект (ИИ) Елиезер Юдковски се обяви за пълно и окончателно спиране на разработването на изкуствения интелект. Според него човешките същества не са готови за подобна мощна технология нито при сегашните условия, нито дори в „обозримото бъдеще“. По повод неотдавнашното отворено писмо, призоваващо за шестмесечен мораториум върху разработването на усъвършенстван изкуствен интелект, той заяви, че подобна пауза не би била достатъчна и че се „подценява сериозността на ситуацията“.

„Ключовият въпрос не е „конкурентният на човека“ интелект (както се казва в отвореното писмо), а какво ще се случи, след като изкуственият интелект достигне интелигентност, по-висока от човешката“, заяви Елиезер Юдковски в статия за списание Time от 29 март. „Много изследователи, които се занимават с тези въпроси, включително и аз, очакват, че най-вероятният резултат от изграждането на свръхчовешки интелигентен ИИ, при настоящите обстоятелства, е, че буквално всички на Земята ще умрем“.

И според Юдковски това не е някакъв „далечен шанс“, а нещо, което „би се случило“. „Не става дума за това, че по принцип не можете да оцелеете, създавайки нещо много по-умно от вас; става дума за това, че то би изисквало прецизност, подготовка и нови научни прозрения, а не системи за изкуствен интелект, съставени от гигантски неразгадаеми масиви от дробни числа.“

След неотдавнашната популярност и експлозивното разрастване на ChatGPT няколко бизнес лидери и изследователи, които вече наброяват 1843 души, включително Илон Мъск и Стив Возняк, подписаха писмо, в което призовават „всички лаборатории за ИИ незабавно да спрат за поне 6 месеца обучението на системи за ИИ, по-мощни от GPT-4“. GPT-4, пуснат през март, е най-новата версия на чатбота на OpenAI, ChatGPT.

AI „не го е грижа“ и ще изисква права

Юдковски прогнозира, че при липса на щателна подготовка изкуствения интелект ще има значително по-различни нужди от хората и след като се самоосъзнае, „няма да се интересува от нас“, нито от друг разумен живот. „Този вид грижа е нещо, което по принцип може да бъде вложено в ИИ, но ние не сме подготвени и не знаем как.“ Това е причината, поради която той призовава за абсолютното спиране.

Без човешки подход към живота ИИ просто ще смята, че всички разумни същества са „направени от атоми, които може да използва за нещо друго“. И човечеството не може да направи почти нищо, за да го спре. Юдковски сравнява сценария с „10-годишно дете, което се опитва да играе шах срещу шахматния софтуер Stockfish 15“. Нито един човешки шахматист все още не е успял да победи Stockfish, което се смята за невъзможно постижение.

Ветеранът в бранша помоли читателите да си представят, че технологията на изкуствения интелект не е ограничена в рамките на интернет.

„Представете си цяла извънземна цивилизация, мислеща с милиони пъти по-висока от човешката скорост, която първоначално е ограничена до компютри – в свят на същества, които от нейна гледна точка са много глупави и много бавни.“

ИИ ще разшири влиянието си извън периферията на физическите мрежи и би могъл да „изгради изкуствени форми на живот“, използвайки лаборатории, в които протеините се произвеждат с помощта на ДНК нишки.

Крайният резултат от изграждането на всемогъщ ИИ, при сегашните условия, ще бъде смъртта на „всеки един представител на човешкия вид и на целия биологичен живот на Земята“, предупреждава той.

Юдковски обвинява OpenAI и DeepMind – две от водещите изследователски лаборатории за изкуствен интелект в света – че не са извършили никаква подготовка или не са изготвили необходимите протоколи по въпроса. OpenAI дори планира да накара самия ИИ да извърши привеждането в съответствие с човешките ценности. „ИИ ще работи заедно с хората, за да гарантира, че неговите собствени наследници са по-съгласувани с хората“, твърдят от OpenAI.

Този начин на действие е „достатъчен, за да накара всеки разумен човек да изпадне в паника“, казва Юдковски.

Той добави, че хората не могат да наблюдават или засичат напълно самосъзнателните системи на ИИ. Съзнателните цифрови умове, които настояват за „човешки права“, биха могли да се развият до степен, в която хората вече няма да могат да контролират системата.

„Ако не можете да сте сигурни дали създавате самоосъзнат изкуствен интелект, това е тревожно не само заради моралните последици, но и защото несигурността означава, че нямате представа какво правите, а това е опасно и трябва да спрете.“

За разлика от други научни експерименти и постепенното развитие на знанията и способностите, хората не могат да си позволят това със свръхчовешкия интелект, защото ако сбъркаш от първия опит, няма втори шанс, „защото си мъртъв“.

„Спрете го!“

Юдковски заявява, че много изследователи осъзнават, че „се движим към катастрофа“, но не го казват на глас.

Тази позиция е различна от тази на привърженици като Бил Гейтс, който наскоро похвали еволюцията на изкуствения интелект. Гейтс твърди, че развитието на изкуствения интелект е „толкова фундаментално, колкото създаването на микропроцесора, персоналния компютър, интернет и мобилния телефон. Той ще промени начина, по който хората работят, учат, пътуват, получават здравни грижи и общуват помежду си. Цели индустрии ще се преориентират около него. Предприятията ще се отличават по това колко добре го използват.“

Гейтс заяви, че изкуственият интелект може да помогне за няколко прогресивни програми, включително изменението на климата и икономическото неравенство.

Междувременно Юдковски инструктира всички институции, включително международните правителства и военните, да прекратят за неопределено време големите разработки на ИИ и да закрият всички големи компютърни ферми, където се усъвършенстват ИИ. Той добавя, че ИИ трябва да се ограничава само до решаване на проблеми в областта на биологията и биотехнологиите, а не да се обучава да чете „текст от интернет“ или до „нивото, на което започва да говори или планира“.

Юдковски завършва с думите: „Не сме готови. Не сме и на път да бъдем по-подготвени в обозримото бъдеще. Ако продължим по този начин, всички ще умрем, включително децата, които не са избрали това и не са направили нищо лошо.“

„Спрете го.“

Споделете тази статия

Comments 1

  1. Галина Христова says:
    Преди 3 години

    Изкуствения интелект няма човешка природа,лишен е от добродетел, но алчноста е предпоставка, злото да се възползва от демоничната природа на човечеството, по- осъзнатите сред нас трябва да се опитаме да и информираме общтноста ,какви биха били тези безотговорни, стигащи до лудост действия на хора като Алън Мъск и да не оставаме безучастни .

    Отговор

Вашият коментар Отказ

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

Последвайте ни във Фейсбук

НАЙ-ТЪРСЕНИ ДНЕС

kak se pravi kiselo zele s morska sol

Изпитана рецепта за кисело зеле в бидон

0
0
Селска агнешка чорба на баба

Селска агнешка чорба с ориз

0
0
"Къщата с ягодите" в София

Емблематичната „Къща с ягодите“ в София с нови, отговорни собственици

0
0
Как да отгледаме благодарни деца в един свят на претенциозност

Как да възпитаме благодарни деца в свят на привилегии

0
0
крем супа от тиква

Вкусна крем супа от тиква цигулка

0
0
Плодове хинап (снимка: Ева Иванова)

Хинап (китайска фурма) – 10 ползи за здравето

0
0
ЕС се движи към "военен Шенген" и ускорява възможната мобилизация на войски в цяла Европа

ЕС планира „военен Шенген“ за по-бързо разполагане на войски в Европа

0
0

Свързани Публикации

Health Canada замрази плана си за премахване на етикетите от клонираното месо след обществено възмущение

Канада временно спря плана за премахване на етикетите върху клонирано месо заради обществено възмущение

0
0
Как изкуственият интелект подхранва научните измами

Как изкуственият интелект дава тласък на научните измами

0
0
(снимка: Tumisu/Pixabay.com)

От паспорт към биометрична идентичност: глобалната реформа в авиосектора набира скорост

0
0
Акционерите на Tesla одобриха заплатата от 1 трилион долара на Илон Мъск

Акционерите на Tesla одобриха пакета за възнаграждение на Илон Мъск от 1 трилион долара

0
0
Слънчевата експанзия в Европа разкри проблеми в остаряващата електроенергийна мрежа, твърдят експерти

Бумът на слънчевата енергия в Европа показа проблемите в остарялата електрическа мрежа, твърдят експерти

0
0
Актьорите на Народния играха „Глембаеви“ в дом за възрастни хора

„Глембаеви“ на Народния театър се игра в дом за възрастни хора

0
0
Проф. Михаил Мирчев

Проф. Мирчев: Тръмп и Путин са се разбрали за Балканите още в Аляска

0
0
Спектакълът "На една длан под едно слънце"

„На една длан под едно слънце“ – спектакъл на Оркестъра за народна музика на БНР

0
0
Войната в Судан

Судан: прехвърляне на оръжия към бойните полета

0
0
Смесен хор на Българското национално радио

Вълнуващ концерт ще изнесе Смесеният хор на БНР

0
0
Следваща публикация
Агата Кристи

Агата Кристи - поредната жертва на „кенсъл културата“

Epoch Times лого
Facebook X-twitter Goodreads-g Youtube Instagram Telegram
  • Последни новини
  • Направете дарение

35 страни, 21 езика

  • English
  • 中文
  • Español
  • עברית
  • 日本語
  • 한국어
  • Bahasa Indonesia
  • Français
  • Deutsch
  • Italiano
  • Português
  • Svenska
  • Nederlands
  • Русский
  • Українська
  • Română
  • Česky
  • Slovenščina
  • Polski
  • Türkçe
  • فارسی
  • За нас
  • Авторски права
  • Условия за ползване
  • Пишете ни!
  • Поверителност на информацията
  • България
  • Свят
  • Китай
    • COVID-19 и Ваксинация
  • Култура и изкуство
  • Наука и технологии
  • Начин на живот
  • Мнения
  • За нас
  • Авторски права
  • Условия за ползване
  • Пишете ни!
  • Поверителност на информацията

Copyright © 2024 Epochtimes.bg | Всички права запазени Epochtimes.bg не носи отговорност за съдържанието на външни сайтове

Няма резултати
Виж всички резултати
  • България
  • Европа
  • САЩ
  • Русия
  • Китай
  • Свят
  • Култура
  • Наука
  • Дух и съзнание
  • Начин на живот

© 2019 Epoch Times България.

Epoch Times Bulgaria