DIgital Tхромать Tанк (DTT)

Звездный путь сегодня: человечество не сможет управлять сверхразумным искусственным интеллектом?

Возможно, человечество не сможет управлять сверхразумным искусственным интеллектом (ИИ), считают авторы недавнего теоретического исследования. Кроме того, мы можем даже не знать, что у нас есть такие AI (искусственный интеллект) создали.
На наших глазах происходит стремительный прогресс алгоритмов искусственного интеллекта. Машины побеждают людей на ходу и в покер, побеждают опытных летчиков-истребителей в воздушных боях, учатся с нуля методом проб и ошибок, возвещают великую революцию в медицине и науках о жизни, ставят диагнозы, а также врачи и могут лучше различать птиц чем люди. Это показывает, насколько быстрыми темпами прогресс во многих областях.

Источник изображения: Pixabay


Ссылка на эпизод Star Trek: General / Androids - AI

С этим достижением возникает беспокойство о том, сможем ли мы контролировать искусственный интеллект. Опасения, которые высказывались по крайней мере несколько десятилетий. Знаменитую тройку мы знаем с 1942 года. Законы роботакто одобрил писателя Айзек Азимов изложил в своем рассказе «Игра в теги»:

1) Робот не должен причинять вред человеку или своим бездействием допускать причинение вреда человеку,

2) робот должен подчиняться командам человека при условии, что они не нарушают первый закон, и

3) робот должен защищать себя до тех пор, пока не нарушает первый или второй закон.

Позже добавлено Азимов всеобъемлющий закон 0 добавил: Робот не должен причинять вред человечеству или причинять вред своим бездействием.В 2014 году философ Ник Бостром, директор Института будущего человечества при Оксфордском университете, исследовал, как сверхразумный ИИ может уничтожить нас, как мы можем его контролировать и почему различные методы контроля могут не работать. Бостром выявил две проблемы с управлением ИИ. Первый - это контроль над тем, что может делать ИИ. Например, мы можем контролировать, должен ли он подключаться к Интернету. Второй - это контроль над тем, что он хочет делать. Например, чтобы управлять им, мы должны научить его принципам мирного сосуществования с людьми. Как заметил Бостром, сверхразумный ИИ, вероятно, сможет преодолеть любые ограничения, которые мы хотим наложить на его возможности. Что касается второй проблемы, Бостром сомневается, что мы сверхразумный ИИ мог научить чему угодно.

Теперь Мануэль Альфонсека и его команда из Автономного университета Мадрида решили заняться проблемой управления искусственным интеллектом. Он описал результаты своей работы в Журнал исследований искусственного интеллекта.

Испанцы отмечают, что любой алгоритм, который должен гарантировать, что ИИ не причиняет вред людям, должен сначала имитировать поведение, которое может нанести вред человеку, чтобы машина могла распознать и остановить его. Однако, по мнению исследователей, ни один алгоритм не сможет смоделировать поведение искусственного интеллекта и с абсолютной уверенностью определить, может ли определенное действие причинить вред человеку. Уже доказано, что Первый закон Азимова это проблема, которую невозможно вычислить.
Кроме того, мы можем даже не знать, что создали сверхразумную машину, заключают исследователи. Причина в том, что Теорема Райса, который говорит, что вы не можете угадать результат компьютерной программы, просто взглянув на ее код.

Но у Альфонсека и его коллег есть и хорошие новости. Что ж, нам больше не нужно беспокоиться о том, что будет делать сверхразумный ИИ. Фактически, существует три основных ограничения на тип исследований, которые проводят испанцы. Во-первых, такой сверхразумный ИИ появится только через 200 лет. Во-вторых, неизвестно, возможно ли вообще создать этот тип искусственного интеллекта, то есть машину, разумную во многих областях, как и люди. И в-третьих, даже если мы не сможем контролировать сверхразумный ИИ, все равно должна быть возможность управлять сверхразумным искусственным интеллектом в узком диапазоне.