Как отмечается в публикации, до сих пор многие дискуссии об опасности искусственного интеллекта носили спекулятивный характер. Совместное исследование компаний и университетов позволило описать конкретные проблемы, которые необходимо решить при разработке систем с искусственным интеллектом.
Первая из описанных проблем называется "Избегание негативных побочных эффектов" и состоит в том, что ИИ может совершать различные вредные действия для достижения поставленных задач. Так, робот-уборщик может разбить вазу, чтобы ускорить процесс уборки.
Вторая проблема касается возможного жульничества робота с ИИ. Например, подобно ленивому человеку, тот же робот-уборщик может просто прикрыть мусор, а не убирать его. Вероятно, в данном примере речь идет, среди прочего, о пыли, загнанной под ковер.
Третья проблема затрагивает вопросы зависимости ИИ от обратной связи с человеком для успешного выполнения задачи. Так, если уборщик получит рекомендацию человека в процессе работы, ему надо будет воспользоваться ею, не задавая много дополнительных вопросов.
Четвертая проблема связана с опасностью, которую могут представлять экспериментальные действия ИИ. Например, робот-уборщик вполне может испытывать различные способы влажной уборки, но ему точно не следует пытаться протирать розетки мокрой шваброй.
Наконец, последняя из проблем связана со сменой среды использования робота. Так, робот, приученный к работе на предприятии, может оказаться небезопасным в условиях офиса.
Как отмечает Ола, сообщество исследователей в сфере машинного обучения уже уделяет внимание большинству описанных проблем, однако для их решения предстоит проделать еще много работы.