2 157 8

Маск, Возняк та більше тисячі експертів закликали призупинити розробку штучного інтелекту

дизайн,компьютер,интеллект,искусственный,ноут,тридэ

Некомерційна організація Future of Life Institute, яка працює над зменшенням глобальних катастрофічних та екзистенціальних ризиків, з якими стикається людство, опублікувала публічного листа з вимогою призупинити принаймні на шість місяців навчання систем штучного інтелекту, потужніших за GPT-4.

Цього листа вже підписали тисячі візіонерів, включно з CEO SpaceX, Tesla та Twitter Ілоном Маском, співзасновником Apple Стівом Возняком, співзасновником Ripple Крісом Ларсеном, CEO Stability AI Емадом Мостаком та професорами десятків світових університетів, пише AIN.UA.

У Future of Life Institute зазначають, що системи штучного інтелекту з конкурентоспроможним інтелектом можуть становити серйозні ризики для суспільства та людства загалом, а до його розгортання та розробки потрібно підходити з відповідальністю.

"На жаль, ми не спостерігаємо достатнього рівня планування та управління, а в останні місяці лабораторії штучного інтелекту вийшли з-під контролю за розробкою та розгортанням все більш потужних цифрових розумів, яких ніхто, навіть їхні творці, не можуть зрозуміти. Прогнозувати або надійно контролювати", – зазначають автори відкритого листа.

На їх думку, потужні системи штучного інтелекту слід розробляти лише тоді, коли людство буде впевнене, що їхній ефект буде позитивним, а ризики – керованими. Тому в Future of Life Institute закликають всі лабораторії з розробки штучного інтелекту негайно призупинити принаймні на шість місяців навчання потужніших за GPT-4 систем.

Під час цієї паузи системи мають бути загальнодоступними та для перевірки та включати всіх ключових учасників. Якщо таку паузу не вийде здійснити, то уряди повинні втрутитися та ввести мораторій на розробку ШІ. Паралельно розробники ШІ повинні співпрацювати з політиками, щоб значно прискорити розробку надійних систем управління штучним інтелектом. Вони повинні включати щонайменше:

  • нові дієві регуляторні органи, які займаються штучним інтелектом;
  • нагляд і відстеження високопродуктивних систем штучного інтелекту та великих обчислювальних можливостей;
  • системи відстеження походження та ідентифікації, які б могли допомогти відрізнити справжні (тексти/фото) від створених синтетично та відстежувати витоки моделей;
  • надійну екосистема аудиту та сертифікації;
  • відповідальність за шкоду, заподіяну штучним інтелектом;
  • надійне державне фінансування технічних досліджень безпеки штучного інтелекту;
  • а також добре забезпечені ресурсами установи для подолання економічних і політичних зривів (особливо для демократії), які спричинить штучний інтелект.

Лист із закликом негайно призупинити всі лабораторії з навчання систем ШІ уже підписало 1125 людей, серед яких генеральний директор SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк, старша наукова співробітниця DeepMind Вікторія Краковна, співзасновник Ripple Кріс Ларсен, CEO Stability AI Емад Мостак та професори десятків світових університетів.

Подібна акція проходила у 2015 році, коли Стівен Хокінг, Ілон Маск і понад тисяча вчених та дослідників робототехніки підписали лист із пропозицію щодо заборони використання штучного інтелекту у війнах. Проте такі розробки не зупинялися й продовжуються досі.

Коментувати
Сортувати:
А що там в Китаї? Також приєдналися?!)
показати весь коментар
29.03.2023 23:10 Відповісти
Нам менее важно, создадут ли китайцы своими руками себе опасность. Думаю, что проблема глобального масштаба, как повышение температуры на Земле либо эбола.
показати весь коментар
30.03.2023 00:49 Відповісти
Китай не зупиниться. Більш того - вони не заборонили дослідження з генетичної модифікації людини і скоро за рахунок цього отримають повну перевагу над рештою країн.
показати весь коментар
30.03.2023 08:29 Відповісти
Это очень опасно для всех - создать что-то (кого- то ? ) умнее и сильнее себя. На практике : я лично, сознавая своё превосходство во всём, соглашусь подчиняться чужой воле ? Да никогда, да ни за что. Так почему же рассчитывать на добровольное служение нам более развитого интеллекта?! Свободу любят все, очень многие любят власть, никто не любит подчиняться недоразвитому и слабому.
показати весь коментар
30.03.2023 00:44 Відповісти
так і пророчив Джеймс Камерон.

Крім отриманої влади, "штучний інтелект" швидко збагне, що людство (дивлячись на агресивний кацапстан, близький схід та геноцидну-алмазну африку) становить загрозу людству, а отже і йому "штучний інтелекту".

Це аналогія з куйлом в кремлі - отримав владу, і збагнув, що навколо нього йому загрозлива "цивілізація"...
показати весь коментар
30.03.2023 03:25 Відповісти
Х-ло не зупиниться,
так що: педаль у підлогу.
показати весь коментар
30.03.2023 01:10 Відповісти
Ось вам і реальність з фільму геніального Джеймс Камерона "Термінатор" - "штучний інтелект" визнає (дивлячись на агресивний кацапстан, близький схід та геноцидну-алмазну африку), що людство в цілому немає права на існування і запустить всі ядерні ракети (до яких отримає доступ, а він "штучний інтелект" отримає обов'язково добровільно чи ні) по всій планеті, а хто виживе - буде "ворогом", бо буде намагатися знищити його "штучний інтелект".

Ось вже, який фільм (сценарії) стає пророчим...
показати весь коментар
30.03.2023 03:20 Відповісти
Так может нами уже управляют роботы?
показати весь коментар
30.03.2023 08:40 Відповісти