+2
Сохранить Сохранено 7
×

Стивен Хокинг: «умные машины» могут вступить в конфликт с людьми


Стивен Хокинг: «умные машины» могут вступить в конфликт с людьми

© Коллаж/Ridus

По мнению знаменитого британского физика-теоретика Стивена Хокинга, озвученного им на открытии Центра по изучению искусственного интеллекта и будущего человечества в Кембриджском университете, развитие искусственного интеллекта станет либо самым лучшим, либо самым худшим, что случалось с человечеством.

«Мы не можем предсказать, чего могли бы достичь в случае усиления нашего интеллекта искусственным», — цитирует ученого газета Daily Express. По словам Хокинга, с одной стороны, не исключено, что с помощью инструментов этой новой технологической революции получится частично компенсировать ущерб, нанесенный природному миру предыдущей революцией — индустриальной. Искусственный интеллект также может помочь в борьбе с болезнями и нищетой, и вообще преобразить «все аспекты нашей жизни».

С другой стороны он может создать угрозы, в частности, привести к появлению нового мощного автономного оружия или новых способов для немногих угнетать большинство. «Это принесет большие разрушения экономике», — утверждает ученый. Он также не исключает, что «умные машины» со временем могут выработать собственную волю и вступить в конфликт с людьми.

Интеллект vs разум

Хокинг и ранее неоднократно предупреждал о потенциальном риске, который заключается в развитии искусственного интеллекта. Однако, по словам начальника лаборатории робототехники НИЦ Курчатовский институт, вице-президента Российской ассоциации искусственного интеллекта Валерия Карпова, следует различать термины «искусственный интеллект» и «искусственный разум».

© Коллаж/Ridus

«Искусственный интеллект — это некая область информатика, которые решает свои специфические задачи, не больше и не меньше. А то, чем пугают обывателя, это относится к категории искусственного разума, разумных машин и всего такого прочего, о чем говорилось, начиная с 40-х годов ХХ века. Занимаясь исследованиями в области искусственного интеллекта, рассуждать о бунте машин, о враждебном человеку разуме и т. д. просто некорректно», — пояснил он «Ридусу».

По словам ученого, бунт системы управления скоростным поездом или экскаватором — это гораздо страшнее, но почему-то обывателя пугает меньше, чем рассуждения о том, что будет, если возникнет какой-то там искусственный разум.

«Опасность не в том, поработит он нас или не поработит. Опасность может заключаться в непонимании. То, что мы можем породить в результате наших экспериментов в области искусственного интеллекта, в конечном итоге может стать нам совершенно непонятным просто потому, что законы его развития, его представления об окружающем мире, в частности, о роли людей, будут нам совершено чужды. А отсюда может проистекать все, что угодно. Можно фантазировать до бесконечности», — говорит эксперт.

Робот на распутье

Ученый отмечает, что создавая интеллектуальные системы, можно двигаться двумя путями. Путь первый: вложить в искусственную систему (программную, аппаратную) какие-то свои человеческие представления о том, как надо себя вести. Условно говоря, правила поведения или правила решения задач, то есть, ту самую, как вам кажется, человеческую логику, с которой вы знаете, что делать, и это не так страшно. Но беда в том, что по этому пути идут уже давно, и пока как-то не очень получается. «Не получается вложить в систему тысячу, десять тысяч или сто тысяч правил, и она вдруг начнет себя вести вот так разумно и решать какие-то задачи», — сетует Валерий Карпов.

© Ben Husmann/flickr.com (CC BY ND 2.0)

Есть другой путь: создавать систему, которая начинает развиваться по законам машинной искусственной эволюции. Что там будет происходить, как будет обучаться нейронная сеть, каким образом будут формироваться решающие правила, что для машины будет главным, определяющим, а что нет, это уже будет вещь совершено закрытая от людей. И поэтому, в конце концов, это может породить некую систему, которая будет успешно решать поставленные задачи, но пользуясь какими-то своими внутренними мотивациями, целями, приоритетами и т. д. И именно подобный вариант развития событий служит пищей для богатых фантазий на тему бунта машин и тому подобных ужасов. Но в реальности предсказывать, чем это может обернуться — все равно, что гадать на кофейной гуще.

Еще в 40-х годах ХХ века писатель-фантаст, ученый, популяризатор науки Айзек Азимов написал свой знаменитый цикл рассказов про роботов, сформулировав три закона робототехники (позднее добавив к ним четвертый, так называемый нулевой). По словам эксперта, обычно из этого контекста выхватывают лишь формулировку законов, тогда как Азимов, на самом деле, писал о том, что система управления этих роботов, их позитронный мозг, был устроен таким образом, что вся его деятельность была самым непосредственным образом завязана на выполнение этих законов.

«А эта задача для современной робототехники никак не решена, — констатирует Валерий Карпов. — Можно ли создать некий императив поведения, который будет неотъемлемой частью системы управления, и без которых система управления просто не будет работать? Это гениальная задача, и ее постановка настолько актуальна, и настолько мы слабо к ней подобрались, что просто диву даешься. Вот это уже интересно, над этим стоит подумать».

Непредсказуемый и эмоциональный

Есть и еще одна интересная деталь, которая льет воду на мельницу обывателя, опасающегося восстания искусственного разума. Оказывается, с сугубо технической и практической точки зрения, создавая некую систему, которая должна жить в реальном мире (то есть, не просто компьютерную программу, а робота), крайне удобно, чтобы в этой системе управления техническим объектом были механизмы, которые подозрительно похожи на то, что творится в психике человека. Например, механизм эмоций. Не в том смысле, что робот улыбается или хмурится, а в том, что он испытывает эмоции. И это уже реальность, такие механизмы действительно существуют.

«Этот механизм крайней выгоден для реализации сложного поведения. То есть, робот должен испытывать эмоции, иначе плохо будет с точки зрения системы управления, не так будет хорошо решать некоторые поведенческие задачи. Очень важно, чтобы робот обладал некоей психической организацией и тем, что мы называем темпераментом. Это интересная штука, которая тоже может заставить задуматься», — замечает ученый.

То есть, гипотетически, опасность бунта машин действительно существует. Но практически такие вещи могут стать актуальными в очень отдаленной перспективе. «Гораздо быстрее мы просто столкнемся с сугубо технологическими какими-то неприятностями, когда рухнет вся сеть, пойдут неадекватные команды, без участия злого разума нечеловеческого, условно говоря. Это гораздо более перспективно в горизонте событий. Прогнозы на 50−100 лет примерно такие. Скорее всего, будет технологическая катастрофа, которая не связана с чуждым разумом. Так что можно пока лет 50−100 спать спокойно», — заключает Валерий Карпов.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+2

 

   

Комментарии (2)

  • Игорь
    Игорь 24 октября 2016

    Еще лет 10 назад вышла книга Rapture For Geeks, именно об этом, так что Хоукинг немного опоздал со своими пророчествами.

    Ответить
    1 +
  • Иван
    Иван 24 октября 2016

    На наступлении 2000 года эта братия хорошо наварилась! Теперь нужна новая страшилка: до 2100 года не многие из них доживут)))

    Ответить
    1 +