Билл Гейтс назвал искусственный интеллект угрозой в будущем


Основатель компании Microsoft Билл Гейтс признал, что человечество должно быть обеспокоено развитием технологий искусственного интеллекта. Об этом он заявил в ходе онлайн-чата с пользователями сервиса Reddit.

«Я в том лагере, который обеспокоен перспективой развития супер-интеллекта. Сначала машины будут выполнять большую часть работы за нас, однако не будут обладать супер-интеллектом. Это хорошо, если мы правильно будем этим управлять. Через несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы стать причиной для беспокойства», — сказал Гейтс.

Он отметил, что согласен в этом плане с основателем компании Tesla Элоном Маском и британским физиком-теоретиком Стивеном Хокингом и не понимает, почему некоторые люди не обращают внимания на эту проблему.

Ранее Хокинг заявил, что развитие систем искусственного интеллекта угрожает человечеству, и выразил опасения, что в ближайшем будущем будут созданы машины, способные превзойти человека.

В свою очередь, Маск в октябре на конференции университета MIT назвал искусственный интеллект «главной экзистенциальной угрозой», а ранее в этом месяце предложил инвестировать 10 миллионов долларов в поддержку «дружественного» характера развития искусственного интеллекта.

Примечательно, что развитием технологий искусственного интеллекта занимается и основанная Гейтсом Microsoft. В число продуктов, в которых используются подобные технологии, входит игровой сенсор Kinect, голосовой помощник Cortana и ряд других проектов в стадии разработки.

Источник: Лента
54321
(Всего 0, Балл 0 из 5)
Поделиться в facebook
Facebook
Поделиться в vk
VK
Поделиться в odnoklassniki
OK
Поделиться в linkedin
LinkedIn
Поделиться в twitter
Twitter

При полном или частичном использовании материалов сайта, ссылка на «Версии.com» обязательна.

Всі інформаційні повідомлення, що розміщені на цьому сайті із посиланням на агентство «Інтерфакс-Україна», не підлягають подальшому відтворенню та/чи розповсюдженню в будь-якій формі, інакше як з письмового дозволу агентства «Інтерфакс-Україна

Напишите нам