Илон Маск, Стивен Хокинг и сотни других экспертов подписали список из 23 принципов развития ИИ

Искусственный интеллект — это удивительная технология, которая изменяет мир, но каждый, кто смотрел фильм «Терминатор», знает, что продвинутый ИИ может быть опасен. Именно поэтому Илон Маск, Стивен Хокинг и сотни других исследователей и IT-экспертов подписали список из 23 основных принципов, которых стоит придерживаться при разработке ИИ, дабы она продвигалась в безопасном, продуктивном и нравственном направлении. 

Данный список был составлен на конференции Beneficial AI 2017. Эксперты в области робототехники, физики, экономики, философии и т.д. горячо обсуждали безопасность ИИ, экономическое влияние технологии на занятость людей и многие другие темы. Для включения каждого пункта в список нужно было получить согласие 90% участников.

В результате участники составили и подписали список из 23 пунктов, которые затрагивают темы от исследований данных до развития суперразума. Всего список подписали почти 1000 исследователей в области ИИ и робототехники и около 1500 экспертов в других сферах, включая CEO Tesla Илона Маска и знаменитого физика Стивена Хокинга.

Некоторые принципы — например, прозрачность и общий доступ всех компаний к исследованиям — будут соблюдены с меньшей вероятностью, но если мы будем придерживаться хотя бы части из них, то разработка ИИ вряд ли приведёт к восстанию Skynet.

Ниже вы можете ознакомиться с переведённым списком (который, к слову, называется Asilomar AI Principles):

Научно-исследовательские вопросы

1. Целью исследований в области искусственного интеллекта должно быть создание не бесконтрольного разума, а выгодного для всего общества инструмента.

2. Инвестиции в ИИ должны производиться совместно с финансированием исследований по обеспечению полезности использования технологии, что позволит давать более точные и обобщенные ответы на возникающие вопросы в области информатики, экономики, права, этики и обществоведения, в частности:

  • Как обеспечить высокую надежность систем ИИ, чтобы они выполняли поставленные задачи без сбоев и угрозы быть взломанными?
  • Каким образом при помощи автоматизации мы можем прийти к необходимой цели, поддерживая человеческие ресурсы и заинтересованность?
  • Как грамотно обновить правовую систему, обеспечив справедливость по современным канонам и учтя появление ИИ?
  • Какой правовой и этический статус получит ИИ?

3. Обеспечение конструктивного и равного взаимодействия исследователей и политиков.

4. В обществе исследователей должна соблюдаться полная открытость и прозрачность.

5. Исследователи ИИ должны всячески сотрудничать между собой во избежание нарушения стандартов безопасности.

Нравственные вопросы

6. Системы искусственного интеллекта должны быть безопасными и надежными на протяжении всего эксплуатационного срока.

7. Если система ИИ причинит вред, должна быть возможность выяснения причины.

8. Любое вмешательство автономной системы в судебные решения должно быть санкционированным и подлежать отчетности в случае проверки специалистами.

9. Ответственность за причинённый вред, намеренное создание опасной ситуации, вызванное ошибкой конструкции или программного обеспечения ляжет на плечи разработчиков и инженеров.

10. Все автономные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение не противоречили общечеловеческим ценностям.

11. ИИ должен быть спроектирован и использован так, чтобы быть совместимым с идеалами человеческих достоинства, прав, свобод и культурного разнообразия.

12. Данные, возникшие в процессе использования ИИ человеком, должны быть доступны в дальнейшем для этого человека.

13. При работе с персональными данными ИИ не должен необоснованно ограничивать реальные или мнимые свободы людей.

14. Технологии ИИ должны приносить пользу и быть доступными как можно большему количеству людей.

15. Экономические ценности, созданные ИИ, должны быть доступны всему человечеству.

16. Человек всегда должен иметь выбор: принять решение самостоятельно или поручить это ИИ.

17. Действия ИИ должны идти на пользу человеческой деятельности, а не во вред.

18. Необходимо всеми силами избегать гонки автономных видов вооружений.

Долгосрочные вопросы

19. Мы должны абсолютно трезво оценивать предел возможностей ИИ во избежание нерациональных затрат ресурсов.

20. Развитие ИИ будет интенсивным, поэтому технология должна быть под контролем, дабы не вызвать необратимых реакций.

21. Риски, особенно крупномасштабные, должны быть спланированы таким образом, чтобы обеспечивать минимизацию возможного ущерба.

22. Системы ИИ, способные к саморазвитию и самовоспроизведению, должны находиться под особо строгим контролем.

23. Суперразум должен будет служить всему человечеству, а не конкретной частной организации или государству.

Источник 






Мы делаем Golbis для вас, жмите "нравится", чтобы читать нас на фейсбуке!