Как перехитрить искусственный интеллект - человек против машины.

Компьютерные системы AI находят свое применение во многих сферах нашей жизни и обладают огромным потенциалом, от беспилотных автомобилей до помощи врачам в диагностике и автономных поисково-спасательных роботов.

Однако одна из основных нерешенных проблем, особенно в области искусственного интеллекта, известной как «нейронные сети», заключается в том, что ученые часто не могут объяснить, почему что-то идет не так. Это связано с отсутствием понимания процесса принятия решений в системах ИИ. Эта проблема известна как проблема «черного ящика».

Кто умнее?

Новый 15-месячный исследовательский проект Ланкастерского университета, в котором также участвует Ливерпульский университет, направлен на раскрытие секретов проблемы черного ящика и поиск нового способа "Глубокое обучение"компьютерных моделей искусственного интеллекта, которые делают решения прозрачными и объяснимыми.

Проэкт "На пути к ответственным и понятным автономным роботизированным обучающим системам"разработает серию процедур проверки безопасности и тестирования для разработки алгоритмов искусственного интеллекта. Это поможет гарантировать надежность и объяснимость решений, принимаемых системами.

Источник изображения: Pixabay


Обучение

Исследователи будут использовать методику под названием «обратное обучение». Он заключается в представлении системы в данной ситуации, в которой она учится выполнять действие - например, Б. Обнаружение и подъем объекта. Затем исследователи изменяют различные элементы сценария, такие как цвет, форма, окружение, и наблюдают, как система учится методом проб и ошибок. Исследователи считают, что эти наблюдения могут привести к лучшему пониманию того, как система учится, и пониманию Процесс принятия решения предоставляется.


Разрабатывая способы создания систем с нейронными сетями, которые могут понимать и предсказывать решения, исследования станут ключом к разблокированию автономных систем в критически важных для безопасности областях, таких как транспортные средства и роботы в промышленности.

Доктор Вэньцзе Руань, профессор Школы вычислительной техники и коммуникаций Ланкастерского университета и ведущий исследователь проекта, сказал: «Хотя Глубокое обучение Поскольку один из самых замечательных методов искусственного интеллекта оказался чрезвычайно успешным во многих приложениях, он имеет свои собственные проблемы при использовании в критически важных системах безопасности, включая непрозрачные механизмы принятия решений и уязвимость для злоумышленников. «Этот проект - прекрасная возможность для нас сократить разрыв в исследованиях между методами глубокого обучения и критически важными для безопасности системами.

печать