Британский физик-теоретик Стивен Хокинг считает неоднозначной роль в истории человечества искусственного интеллекта (ИИ).
Об этом он заявил на открытии Центра по изучению искусственного интеллекта и будущего человечества в Кембриджском университете.


"Мы не можем предсказать, чего могли бы достичь в случае усиления нашего интеллекта искусственным", - приводит слова Хокинга газета Daily Express. Исследовательский центр создан совместно с Оксфордским университетом и Имперским колледжем Лондона.

"Возможно, с помощью инструментариев этой новой технологической революции мы получим возможность частично компенсировать ущерб, нанесенный предыдущей (революцией) - индустриальной", - отметил ученый. По его словам, искусственный интеллект может быть использован для борьбы с болезнями и искоренением бедности. "ИИ преобразит все аспекты нашей жизни", - уверен Хокинг.

В то же время ученый не исключает, что создание ИИ "может стать и последней (технологической революцией), если человечество не научится контролировать риски". "Наряду с выгодами искусственный интеллект также создаст угрозы", - полагает он. Это может выразиться, как сказал физик, в появлении "нового мощного автономного оружия или возможностей для немногих угнетать большинство". "В результате возникнут огромные проблемы в экономике", - утверждает он.

Хокинг не исключает, что ИИ "может усовершенствовать себя" и вступить в конфликт с людьми. "Короче говоря, рост мощного искусственного будет либо лучшим, либо худшим, что когда-нибудь случится с человечеством", - отметил ученый. Ранее Хокинг неоднократно указывал на опасность создания мыслящих машин для существования человечества.

74-летний физик-теоретик, страдающий боковым амиотрофическим склерозом, использует новую систему, разработанную компанией Intel. В создании этой технологии участвовали эксперты из британской фирмы SwiftKey. Ученый общается с внешним миром с помощью единственной действующей мышцы щеки, которая через специальный датчик подает сигнал на компьютерный синтезатор речи.



Подробнее на ТАСС:
http://tass.ru/nauka/3720800 

КОММЕНТАРИИ

Авторизуйтесь чтобы оставлять комментарии