Если верить новостям, опросам и показателям инвестиционной привлекательности, искусственный интеллект и машинное обучение скоро станут неотъемлемой частью нашей повседневной жизни.
Подтверждением этого тезиса является череда нововведений и прорывов, которые показали мощь и эффективность ИИ в различных областях, включая медицину, торговлю, финансы, СМИ, борьбу с преступностью и многое другое. Но в то же время бурное развитие ИИ подчеркнуло тот факт, что помогая людям в решении их задач машины вместе с тем станут причиной возникновения новых проблем, которые могут повлиять на экономические, правовые и этические основы нашего общества.
Отсюда вытекают четыре вопроса, которые компании, занятые в разработке искусственного интеллекта, должны решить по мере развития технологии и расширения сфер ее применения.
Занятость
Автоматизация снижала количество рабочих мест в производстве в течение многих десятилетий. Скачкообразные темпы развития искусственного интеллекта ускорили этот процесс и распространили его на те сферы жизни человека, которые, как принято было считать, еще довольно долго должны были оставаться монополией человеческого интеллекта.
Управление грузовиками, написание новостных статей, ведение бухучета, алгоритмы искусственного интеллекта угрожают рабочим местам среднего класса как никогда раньше. Идея замены врачей, юристов или даже президентов искусственным интеллектом не кажется уже такой фантастичной.
В то же время верно и то, что революция ИИ создаст много новых рабочих мест в исследовательской сфере, сферах машинного обучения, инженерии и информационных технологий, которым потребуются человеческие ресурсы для разработки и поддержки систем и программного обеспечения, участвующих в работе алгоритмов ИИ. Но проблема заключается в том, что в большинстве своем люди, которые теряют рабочие места, не обладают навыками, необходимыми для того, чтобы занять такие вакантные должности. Таким образом, с одной стороны мы имеем расширяющийся кадровый вакуум в технологических областях, а с другой — растущий поток безработного и раздраженного населения. Некоторые лидеры рынка технологий даже готовятся к тому дню, когда народ с вилами постучится к ним в двери.
Чтобы не упустить контроль над ситуацией, индустрия высоких технологий должна помочь обществу адаптироваться к тем серьезным изменениям, которые отразятся на социально-экономическом ландшафте, и плавно перейти к будущему, где роботы будут занимать все больше и больше рабочих мест.
Обучение новым техническим навыкам тех людей, чьи рабочие места в будущем отойдут ИИ, станет одним из воплощений подобных усилий. Кроме того, технологические компании могут использовать перспективные направления, типа когнитивных вычислений и программирования на основе естественного языка, чтобы помочь упростить задачи и снизить порог вхождения в высокотехнологичные профессии, делая их доступными для большего числа людей.
В долгосрочной перспективе правительствам и корпорациям нужно продумать возможность введения универсального основного дохода — безусловных ежемесячных или ежегодных выплат всем гражданам, так как мы медленно, но уверенно, движемся в сторону дня, когда все работы будут выполняться роботами.
Тенденциозность
Как было доказано на нескольких примерах в последние годы, искусственный интеллект может быть столь же, а может даже более необъективен, чем человек.
Машинное обучение, популярная ветвь ИИ, которая стоит за алгоритмами распознавания лица, контекстной рекламой и многим другим, в зависимости от данных, на основе которых строится обучение и отладка алгоритмов.
Проблема состоит в том, что, если информация, вносимая в алгоритмы, будет несбалансированной, в результате на выходе может возникать скрытая и открытая тенденциозность, основанная на этой информации. В настоящее время сфера искусственного интеллекта страдает от распространенной беды под общим названием «проблема белого человека», т.е. преобладании белых мужчин в результатах его работы.
По этой же причине в конкурсе красоты, жюри которого был искусственный интеллект, были награждены главным образом белые конкурсантки, алгоритм, выбирающий имена, отдавал предпочтение «белым» именам, а рекламные алгоритмы предпочитали показывать высокооплачиваемые вакансии для посетителей мужского пола.
Еще одна проблема, вызвавшая множество споров в прошлом году, это так называемый «пузырь фильтров». Явление, которое было замечено в Facebook и других социальных медиа, которые опираясь на предпочтения пользователей, делали рекомендации, соответствующие этим предпочтениям, и скрывали альтернативные точки зрения.
Пока что большая часть подобных случаев выглядит как досадные ошибки и забавные случаи. Однако необходимо внести ряд существенных изменения в работу ИИ, если он будет призван выполнять куда более важные задачи, такие как, например, вынесение вердиктов в суде. Также необходимо принять меры предосторожности по предотвращению вмешательства в работу алгоритмов ИИ со стороны третьих лиц, направленного на искажение результатов работы ИИ в свою пользу путем манипулирования данными.
Этого можно достичь сделав процесс наполнения алгоритмов данными прозрачным и открытым. Создание общих хранилищ данных, которые не будут принадлежать кому-то одному и могут быть проверены независимыми органами, могут помочь в продвижении к этой цели.
Ответственность
Кто виноват в программном или аппаратном сбое? До появления ИИ было сравнительно легко определить, был ли инцидент результатом действий пользователя, разработчика или завода-производителя.
Но в эпоху технологий, управляемых ИИ все стало не столь очевидным.
Алгоритмы машинного обучения сами определяют, как реагировать на события. И не смотря на то, что действуют они в контексте вводимых данных, даже разработчики этих алгоритмов не могут объяснить, как действует их продукт, принимая решение в конкретном случае.
Это может стать проблемой, когда алгоритмы искусственного интеллекта начнут принимать более важные решения. Например, чью жизнь спасти в случае неотвратимости ДТП — пассажира и пешехода.
Пример можно распространить на множество других возможных сценариев, в которых определение виновности и ответственности будет затруднительно. Что делать, когда система автоматического введения лекарственных средств или робот-хирург нанесут вред пациенту?
Когда границы ответственности размыты между пользователем, разработчиком и оператором ввода данных, каждая из сторон будет стараться переложить вину на другого. Поэтому необходимо разработать и ввести новые правила, чтобы иметь возможность предупредить возможные коллизии и решать юридические вопросы, которые окружат ИИ в ближайшем будущем.
Конфиденциальность
ИИ и МО потребляют огромные объемы данных, и компании, чей бизнес строится вокруг этих технологий, станут наращивать объемы сбора пользовательских данных, с согласия последнего или без оного, чтобы сделать свои услуги более целенаправленными и эффективными.
В пылу охоты за большим количеством данных, компании могут выйти за границы конфиденциальности. Подобный случай имел место, когда один розничный магазин узнал и случайно выдал рекламной рассылкой купонов тайну беременности девочки-подростка ее ничего не подозревающему отцу. Другой случай, произошедший совсем недавно, коснулся передачи данных Национальной службой здравоохранения Великобритании проекту DeepMind компании Google, что якобы было направлено на улучшение прогнозирования заболевания.
Существует также вопрос злоумышленного использования искусственного интеллекта и машинного обучения как правительственных и так неправительственными организациями. Довольно эффективное приложение распознавания лиц, разработанное в прошлом году в России, может стать потенциальным инструментом для деспотических режимов, стремящихся выявить и расправиться с диссидентами и протестующими. Еще один алгоритм машинного обучения оказался эффективным при распознавании и восстановлении изображений, замазанных блюром или пикселированием.
ИИ и МО дают возможность злоумышленникам выдавать себя за других людей, имитируя их почерк, голос и манеру общения, обеспечивая их невиданным по своей силе инструментом, который может быть использован в разного рода противоправных деяниях.
Если компании, разрабатывающие и использующие технологию ИИ, не будут регулировать процесс сбора и распространения информации и принимать необходимые меры для анонимизации и защиты пользовательских данных, их деятельность в конечном итоге будет причинять вреда больше, чем приносить пользы пользователям. Использование и доступность технологии должны регулироваться таким образом, чтобы предотвратить или свести к минимуму ее деструктивное использование.
Пользователям также нужно ответственно относиться к тому, чем они делятся с компаниями или постят Интернете. Мы живем в эпоху, где неприкосновенность частной жизни становится товаром, и ИИ этому только способствует.
Будущее искусственного интеллекта
Есть преимущества и недостатки у каждой прорывной технологии. И искусственный интеллект не является исключением. Важно то, что мы можем определить проблемы, которые лежат перед нами, и признать нашу ответственность, чтобы быть уверенными, что мы можем в полной мере воспользоваться преимуществами и минимизировать негативные последствия.
Роботы уже стучат в нашу дверь. Давайте убедимся, что они пришли с миром.