fbpx

Гокінг про наслідки поширення штучного інтелекту

Індустрія 4.0 в Україні > Технології  > Гокінг про наслідки поширення штучного інтелекту

Гокінг про наслідки поширення штучного інтелекту

Поширення штучного інтелекту (ШІ) може стати “найжахливішою подією в історії нашої цивілізації”, якщо суспільство не відшукає спосіб контролювати його розвиток, заявив цього тижня відомий фізик Стівен Гокінг.Коментар вченого пролунав під час виступу на технологічній конференції Web Summit у Лісабоні, Португалія, повідомляє портал CNBC.

“комп’ютери здатні, теоретично, відтворити людський інтелект та перевершити його.”

– заявив Гокінг.

Стівен Гокінг говорив про можливості ШІ у ліквідації шкоди, яку ми завдали природі, викоріненні бідності та захворювань, та про кожний аспект суспільства, який піддається “перетворенню”.

“Успіх у створенні ефективного ШІ може стати найбільшою подією в історії нашої цивілізації. Або найжахливішою. Ми просто не знаємо. Тож, ми не можемо знати, чи буде ШІ безмежно допомагати нам, чи ми будемо проігноровані та відсторонені ним, чи ймовірно знищені ним,”

–  пояснив фізик –

“Лишень, якщо ми не дізнаємось, як підготуватися, уникнути можливих ризиків, ШІ може стати найжахливішою подією в історії нашої цивілізації. Він несе небезпеку, як потужне автономне озброєння, або нові шляхи для пригнічення більшості меншістю. Він може призвести до значних зсувів у нашій економіці.”

Гокінг відзначив, що щоби уникнути жахливих наслідків, творці штучного інтелекту мають звернутися до “найкращих практик та ефективного менеджменту.”

Загрози, які несуть роботи та штучний інтелект, мають бути визначені та прогнозовані – Гокінг.

Говорячи про підготовчу роботу, Гокінг звернув увагу на законодавчу роботу, яка останніми роками проводилась у Європі. Йдеться про резолюцію та законотворчі ініціативи ЄС, покликані встановити правила відносно ШІ та роботів.

Бути оптимістами та готуватися до найгіршого

“Я оптиміст і я вірю, що ми можемо створити ШІ на благо світу, що він зможе працювати у гармонії з нами. Ми просто повинні взяти до уваги загрози, визначити їх, скористатися з найкращих практик та менеджменту, і заздалегідь підготуватися до наслідків.”

– підсумував фізик.

Гокінг не вперше звертає увагу громадськості на загрози виникнення та поширення штучного інтелекту. Британський фізик входить у число провідних науковців та технологічних підприємців, які занепокоєні потенціалом ШІ. Керівник компаній SpaceX та Tesla Ілон Маск також вважає, що ШІ здатен викликати третю світову війну.

“Якщо ви не переймаєтесь безпекою ШІ, вам варто було б. Значно більше ризиків, ніж з Північною Кореєю.” – Elon Musk.

 

 

Джерело: Штучний інтелект може стати “найжахливішою подією в історії нашої цивілізації”…

Олександр Юрчак
Нет Комментариев

Коментувати

Коментар
ім’я
Email
Web-cайт: