Фото: iStock
Как следует из заявления Комитета Европейского союза по правовым вопросам, ЕС необходимо установить правила использования роботов, чтобы урегулировать вопросы этики, безопасности и правопорядка, что способствовало бы в получении роботами юридического статуса «электронных» лиц.
Депутаты Европарламента заявили, что введение общеевропейских правил необходимо для использования экономического потенциала робототехники и искусственного интеллекта, а также чтобы гарантировать безопасность и правовой порядок. ЕС необходимо взять инициативу в свои руки или подвергнуться определенному риску, если правила, касающиеся статуса роботов, будут введены кем-то другим, следует из доклада Комитета.
Политики выступают за создание нового европейского агентства по робототехнике и этического кодекса поведения, чтобы определить, кто будет нести ответственность за воздействие робототехники на общество, экологию и здоровье человека, и убедиться, что она действует в соответствии с нормами права, безопасности и этики.
Среди прочего указано, что кодекс должен рекомендовать конструкторам роботов предусмотреть так называемый «убивающий» переключатель, чтобы роботов можно было выключить в чрезвычайных ситуациях.
Инициативная группа заявила, что подобные правила крайне необходимы для автомобилей с автопилотом, и настаивает на создании обязательной системы страхования и соответствующего фонда, обеспечивающих жертвам полную компенсацию в случае аварий, случившихся вследствие использования таких автомобилей.
В долгосрочной перспективе следует рассмотреть возможность создания специального правового статуса «электронных лиц» для сложных автономных роботов, чтобы внести ясность в вопросе ответственности в случаях повреждения, заявили депутаты Европарламента.
Европе также необходимо обратить внимание на то воздействие, которое оказывает интенсивное использование робототехники на общество, включающее в себя новые модели занятости населения и жизнеспособности существующих налогов, а также социальной системы для робототехники.
Между тем, роботы все чаще становятся частью повседневной жизни — по всему миру насчитывается около 1,7 миллиона роботов — а их использование до сих пор не регулируется надлежащим образом, утверждается в докладе.
Европа должна быть готова к росту численности самообучающихся роботов, сказала автор доклада Мади Дельво. Одним из решений может быть присвоение роботам ограниченного статуса «электронного лица», чего-то наподобие «юридического лица», правового статуса, который позволяет организациям выступать в качестве истца или ответчика.
«Что нам нужно сейчас, так это создать правовую базу для роботов, которые уже присутствуют на рынке или станут доступными в течение ближайших 10-15 лет,» сказала она.
В докладе также выражена обеспокоенность по поводу возможного риска эмоциональной привязанности людей к своим роботам.
«Мы всегда должны напоминать людям, что робот не человек и никогда им не будет. Несмотря на то, что роботы могут произвести впечатление сочувствующих, на самом деле настоящих чувств у них никогда не будет. Нам не нужны «человекообразные» роботы как в Японии. Нами предложена норма, согласно которой запрещены роботы, которые могли бы спровоцировать людей на эмоциональную зависимость от них. Вы можете быть зависимыми от них при выполнении физических задач, но вы никогда не должны думать, что робот любит вас или чувствует вашу грусть, » — заявила Дельво.
Но не только этические вопросы обсуждаются в связи с использованием роботов. В Организации Объединенных Наций находится на рассмотрении вопрос, следует ли разрешить использование искусственного интеллекта на полях сражений в форме «роботов-убийц». Впрочем, свод законов для роботов уже сформулирован. Это три закона Азимова, в которых говорится:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен выполнять приказы, отданные ему людьми, за исключением случаев, когда такие приказы будут противоречить Первому Закону.
3. Робот должен защищать свое собственное существование, пока такая защита не противоречит Первому и Второму Законам.