Інформація

Чи варто боятись штучного суперинтелекту?

Чи варто боятись штучного суперинтелекту?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Виступаючи на конференції в Лісабоні, Португалія, незадовго до смерті, Стівен Хокінг сказав присутнім, що розвиток штучного інтелекту може стати "найгіршою подією в історії нашої цивілізації", і у нього є всі підстави для занепокоєння. Відомий як штучний суперінтелект (ASI) дослідниками ШІ, етиками та іншими, він має потенціал стати могутнішим за все, що бачила ця планета, і створює, можливо, остаточний екзистенційний виклик, з яким людство коли-небудь зіткнеться як вид .

Чому люди бояться штучного інтелекту?

Щоб краще зрозуміти, що стосується Стівена Хокінга, Ілона Маска та багатьох інших, нам потрібно деконструювати багато зображень популярної культури ШІ.

Реальність така, що ШІ є з нами вже деякий час, з тих пір, як комп’ютери могли приймати рішення на основі даних та умов. Коли ми бачимо у фільмах загрозливу систему ШІ, нас злякає зловмисність системи в поєднанні з потужністю комп’ютера.

Однак вона все ще поводиться принципово по-людськи.

ДИВІТЬСЯ ТАКОЖ: 10 ОСНОВНИХ ПЕРЕГОВОРІВ ПРО ШТУЧИЙ ІНТЕЛЛЕКТ

Вид ШІ, який ми маємо сьогодні, можна описати як Штучний функціональний інтелект (ШІ). Ці системи запрограмовані виконувати певну роль і робити це так само добре або краще, ніж людина. Вони також стали більш успішними в цьому за коротший проміжок часу, ніж майже кожен передбачав, перемагаючи людських противників у складних іграх, таких як Go та Starcraft II, які відомі люди думали, що це не відбудеться роками, а то й десятиліттями.

Незважаючи на те, що ми можемо брати участь у шикунному гуморі щодо нашої необхідності прийняти наших власників роботів, немає реального ризику, що ці системи самі становлять той тип ризику, про який говорив Хокінг. AlphaGo може перемогти кожного окремого гравця Go Go відтепер і до теплової смерті Всесвіту, але запитуйте його про поточні погодні умови, і йому бракує розуму навіть одноклітинних організмів, які реагують на зміни температури.

Коли ми говоримо про небезпечний ШІ, ми думаємо про те, що комп’ютерники називають штучним загальним інтелектом (АГІ), штучною системою, яка повністю імітує людський розум і є такою ж розумною, як людина, в будь-якій галузі знань, за винятком того, що вона може думати в мільярди разів швидше, ніж ми можемо. Це те, що фільми, як правило, зображують як неймовірно небезпечний Скайнет, який намагається знищити людство, але як би страшно це не здавалося, це не справжнє занепокоєння.

Якою б загрозливою не здавалася ця система, ми, швидше за все, ніколи не побачимо, що AGI з’являється. Справжнє занепокоєння полягає в тому, що лежить на крок від AGI.

Побудова не лише рівня інтелекту на рівні людини

Проблема розробки AGI в традиційному розумінні полягає в тому, що неможливо запрограмувати дерево рішень на кожне питання, яке AGI повинен був би вирішити. Завжди буде щось, до чого його закликають зробити, але це просто не запрограмовано, наприклад, запитувати AlphaGo про погоду.

Люди постійно стикаються з цією проблемою, і саме наша здатність вчитися і формувати нові зв’язки в нашому мозку робить нас здатними до вдосконаленого інтелекту та вирішення проблем. Якщо ми не знаємо, як вирішити проблему, ми можемо її проаналізувати та знайти відповідь. Саме цю здатність ми тільки зараз починаємо перетворювати на найдосконаліші системи штучного інтелекту, які ми маємо, і це справді кам’яна історія у великій схемі речей.

Щоб по-справжньому досягти AGI, системі потрібен ключовий інструмент, який люди сприймають як належне, здебільшого тому, що він є автоматичним. Він повинен мати можливість переписати своє програмування, щоб зробити себе розумнішим, як людська біологія автоматично переробляє мозок, щоб пізнавати нові речі. Тут починають формуватися наслідки та побоювання щодо штучного інтелекту, справжні наукові проблеми, а не голлівудська версія.

Припустимо, ми запрограмуємо систему, яка могла б переписати власне програмування, щоб зробити себе більш розумним у будь-якому предметі, навичках чи здібностях, на які здатні люди. На початку це було б зовсім не дуже розумно, але кожне наступне вдосконалення, у свою чергу, покращило б його здатність вдосконалюватися. Кожен крихітний, поступовий крок буде спиратися на останній, зростаючи в геометричній прогресії.

У цьому процесі настане момент, коли система перестане бути AFI. Подібно твердому сублімації у свій газоподібний стан, цей AFI, здається, повністю проходить AGI, оскільки його зростання інтелекту стає вибухонебезпечним, момент, який відомий авторитет AI Нік Бостром називає ASI Lift-off. Ми буквально не в силах уявити, яким насправді є такий інтелект.

Чи не можемо ми просто відключити штучний суперінтелект?

Як правило, це найпоширеніша реакція громадськості, коли вони замислюються про втікаючий ШІ в стилі Скайнет. Просто відключіть його або щось настільки ж буденне, ніби штучний суперінтелект - це модем, який потрібно скинути. Ми вже знаємо, що це не спрацює, так само як ви не можете видалити комп’ютерний вірус або зупинити його поширення, вимкнувши заражений комп’ютер. Як тільки інфекція є, вже пізно.

Якщо вірус може вбудуватися в систему, щоб протистояти видаленню або скопіювати себе та інфікувати інші системи ще до того, як ми навіть знаємо, що відбувається, штучний суперінтелект буде видалити нескінченно важче. Гірше того, що, маючи щось таке розумне, він міг би знайти способи самозбереження, які ми вважали б абсолютно неможливими, оскільки нам бракує інтелекту, щоб знати, як це здійснити, як, наприклад, спроба уявити фізику літака, маючи при цьому потужність мозку бабуїна .

Здавалося б, ми закрили штучний суперінтелект лише для того, щоб спостерігати, як він знову з’являється на іншому кінці світу, ніби за допомогою магії, і ми ніколи не дізнаємось, як йому вдалося туди потрапити.

Тоді навіщо це взагалі робити?

Це питання, яке ми, природно, задаємо, але проблема в тому, що немає реального способу розробити систему, яка б навіть становила значний відсоток AGI, що не вимагає передачі контролю над ростом та розвитком системи самому ШІ, як розвиток нашого власного інтелекту - це автоматична функція нашого мозку самостійно утворювати нові нервові зв’язки.

Якщо ми хочемо вийти за рамки елементарних ІФІ, які ми маємо в даний час, то ми повинні припустити, що штучний суперінтелект настільки ж неминучий, як ядерна зброя була неминуча після розщеплення атома для використання ядерного поділу як джерела енергії. Зрештою, єдиний спосіб запобігти появі штучного суперінтелекту - це взагалі зупинити будь-який подальший розвиток штучного інтелекту, що на сьогоднішній день не виглядає ймовірним чи навіть можливим.

Подібно до того, як штучний суперінтелект має нескінченний потенціал шкоди, він може так само легко принести користь, принаймні своїм творцям. Якщо у вас є дві держави змагань, як одна нація могла довірити іншій таку потужну систему? Подібно до того, як запуск СРСР СРСР спонукав зароджувану космічну програму США до швидкості, розвиток ШІ вже досить просунувся, щоб ніхто не хотів виходити на друге місце в гонці ШІ. Недолік відставання просто занадто великий.

Якщо стимули більші з боку розробки більш досконалих ШІ, ніж у наступного хлопця, то гонка озброєнь ШІ неминуча, і, як ми вже бачили, немає шляху до АГІ, який не виробляє АСІ майже відразу згодом. Отже, якщо його поява майже гарантована, чим більше ми досліджуємо та розробляємо штучний інтелект, то у вас ще більше стимулів бути тим, хто розробляє його першим. Таким чином, ви маєте найбільший шанс, що суперінтелект буде доброзичливим до вас або, принаймні, не ворожим.

Ласкаво просимо до дилеми в’язня про штучний інтелект.

Чи варто боятись штучного суперинтелекту?

Звичайно.

Як і в кожному технологічному розвитку, завжди є непередбачені наслідки, і коли ми маємо штучний суперінтелект, шляху назад уже немає.

Але ми повинні пам’ятати, що в нашій природі бачити загрозу, яку представляє така система, оскільки ми еволюційно закріплені, щоб визначити небезпеку та уникнути її. Щось цей могутній дійсно міг би вирішити і, мабуть, мав би силу винищити все людське життя, якби його метою було збереження загального життя планети. Зрештою, найбільшою загрозою для життя на Землі є людська цивілізація.

Але, якщо він має таку силу, він мав би настільки ж потужність запобігти чи навіть змінити зміну клімату, і в цьому полягає вибір, який має зробити людство.

Подібно до того, як потенційні мінуси ASI нескінченні, так само неможливо встановити обмеження на те, чого можна досягти. Що б ми не думали, ASI може зробити більше. Зміна клімату, викорінення хвороб, закінчення нуди та голоду, кінець смерті і навіть швидше, ніж мандрівки світлом у далекі галактики - все це настільки ж можливе - і, можливо, навіть більш вірогідне - результат АСІ, ніж безсмертний , злий диктаторський монстр, від якого застерігає Ілон Маск.

У нас є всі підстави вірити, що врешті-решт ASI буде працювати на нашу користь. Кожен технологічний прогрес мав свою ціну, але людська цивілізація завдяки цьому розвивалась. Врешті-решт, люди мають суттєвий досвід, коли мова заходить про технології. Так, ми можемо виробляти зброю неймовірної руйнівності, але ми також можемо викорінювати віспу та поліомієліт. Ми в основному подолали голод таким, який він є, і навіть війни постійно занепадають.

Якщо наше майбутнє є чимось подібним до нашого минулого, то ми можемо виправдано оптимістично дивитися на майбутнє штучного інтелекту. Тоді штучний суперінтелект буде тим, що ми з нього робимо, подібно до того, як діти є не лише біологічним продуктом своїх батьків, тому надзвичайно важливо, щоб ми як цивілізація вирішили, який саме тип штучного суперінтелекту ми хочемо створити.


Перегляньте відео: СЛАЙМ ИЗ КЛЕЯ ЛУЧ САМЫЙ ПРОСТОЙ РЕЦЕПТПРОВЕРЯЮ РЕЦЕПТЫ ОТ ПОДПИСЧИКОВ!Push Slime (Червень 2022).