Почему этическая проблема — самая серьезная для искусственного интеллекта

Почему этическая проблема — самая серьезная для искусственного интеллекта
  • 09.03.17
  • 0
  • 8176
  • фон:

Искусственный интеллект уже повсюду и повсюду останется. Многие аспекты нашей жизни в той или иной степени касаются искусственного интеллекта: он решает, какие книги купить, какие билеты на авиарейс заказать, насколько успешны поданные резюме, предоставит ли банк ссуду и какое лекарство от рака назначить пациенту. Многие его применения по нашу сторону океана еще не пришли, но обязательно придут.

Все эти вещи — и многие другие — теперь могут в значительной степени определяться сложными программными системами. Огромные успехи, достигнутые ИИ за последние несколько лет, поразительны: ИИ делает нашу жизнь лучше во многих, многих случаях. Рост искусственного интеллекта стал неизбежным. Огромные суммы были инвестированы в стартапы на тему ИИ. Многие существующие технические компании — включая таких гигантов, как Amazon, Facebook и Microsoft, — открыли новые исследовательские лаборатории. Не будет преувеличением сказать, что программное обеспечение теперь означает ИИ.

Некоторые предсказывают, что пришествие ИИ будет таким же большим событием (или даже больше), как и появление Интернета. BBC опросила экспертов, что готовит этот быстро меняющийся мир, наполненный блестящими машинами, нам, людям. И что особенно интересно, почти все их ответы были посвящены этическим вопросам.

Питер Норвиг, директор по исследованиям в Google и пионер машинного обучения, считает, что технологии ИИ, основанные на данных, поднимает особенно важный вопрос: как обеспечить, чтобы эти новые системы улучшали общество в целом, а не только тех, кто ими управляет. «Искусственный интеллект оказался весьма эффективным в практических задачах — от маркировки фотографий до понимания речи и письменного естественного языка, выявления заболеваний», говорит он. «Теперь задача состоит в том, чтобы удостовериться, что каждый пользуется этой технологией».

Большая проблема заключается в том, что сложность программного обеспечения зачастую означает, что невозможно точно определить, почему система ИИ делает то, что делает. Благодаря тому, как работает современный ИИ — основываясь на широко успешной технике машинного обучения, — невозможно просто открыть капот и посмотреть, как он работает. Поэтому нам приходится просто ему доверять. Задача состоит в том, чтобы придумать новые способы мониторинга или аудита многих областей, в которых ИИ играет большую роль.

Джонатан Зттрейн, профессор интернет-права юридического факультета Гарварда, считает, что существует опасность того, что усложнение компьютерных систем может помешать нам в обеспечении должного уровня проверки и контроля. «Меня беспокоит сокращение автономии человека, поскольку наши системы — при помощи технологий — становятся все более сложными и тесно взаимосвязанными», говорит он. «Если мы «настроим и забудем», мы можем пожалеть о том, как разовьется система и что не рассмотрели этический аспект ранее».

Это беспокойство разделяют и другие эксперты. «Как мы сможем сертифицировать эти системы как безопасные?», спрашивает Мисси Каммингс, директор Лаборатории человека и автономности в Университете Дьюка в Северной Каролине, одна из первых женщин-пилотов истребителя ВМС США, ныне специалист по беспилотникам.

ИИ потребуется надзор, но пока неясно, как это сделать. «В настоящее время у нас нет общепринятых подходов», говорит Каммингс. «И без промышленного стандарта тестирования таких систем будет трудно широко имплементировать эти технологии».

Но в стремительно меняющемся мире зачастую и органы урегулирования оказываются в позиции догоняющих. Во многих важных областях вроде уголовного правосудия и здравоохранения компании уже наслаждаются эффективностью искусственного интеллекта, который принимает решение об условно-досрочном освобождении или диагностике заболевания. Передавая право решения машинам, мы рискуем потерять контроль — кто будет проверять правоту системы в каждом отдельном случае?

Дана Бойд, главный исследователь Microsoft Research, говорит, что остаются серьезные вопросы о ценностях, которые записываются в такие системы — и кто в конечном итоге несет за них ответственность. «Регуляторы, гражданское общество и социальные теоретики все чаще хотят видеть эти технологии справедливыми и этическими, но их концепции в лучшем случае расплывчаты».

Одна из областей, чреватых этическими проблемами, это рабочие места, вообще рынок работы. ИИ позволяет роботам выполнять все более сложные работы и вытесняет большое количество людей. Китайская Foxconn Technology Group, поставщик Apple и Samsung, заявила о намерении заменить 60 000 рабочих завода роботами, а фабрика Ford в Кельне, Германия, поставила роботов рядом с людьми.

Более того, если повышение автоматизации окажет большое влияние на занятость, это может иметь негативные последствия для психического здоровья людей. «Если задуматься о том, что дает людям смысл в жизни, это три вещи: значимые отношения, страстные интересы и значимая работа», говорит Иезекиель Эмануэль, биоэтик и бывший советник по вопросам здравоохранения Барака Обамы. «Значимая работа — очень важный элемент чьей-то идентичности». Он говорит, что в регионах, где работы были потеряны вместе с закрытием фабрик, повышается риск суицида, злоупотребления психоактивными веществами и депрессии.

В результате мы видим потребность в большом количестве специалистов по этике. «Компании будут следовать своим рыночным стимулам — это не плохо, но мы не можем полагаться на то, что они будут вести себя этически корректно просто так», говорит Кейт Дарлинг, специалист по праву и этике в Массачусетском технологическом институте. «Мы видели это всякий раз, когда появлялась новая технология и мы пытались решить, что с ней делать».

Дарлинг отмечает, что многие компании с крупными именами, такие как Google, уже создали надзорные комитеты по этике, которые контролируют разработку и развертывание их ИИ. Есть мнение, что они должны быть более распространенными. «Мы не хотим душить инновации, но такие структуры нам просто необходимы», говорит она.

Подробности о том, кто сидит в совете по этике Google и чем занимается, остаются туманными. Но в прошлом сентябре Facebook, Google и Amazon запустили консорциум для разработки решений, которые позволят справиться с бездной ловушек, связанных с безопасностью и секретностью ИИ. OpenAI — тоже организация, которая занимается разработкой и продвижением ИИ с открытым исходным кодом на благо всех. «Важно, чтобы машинное обучение изучалось открыто и распространялось через открытые публикации и открытый исходный код, чтобы все мы могли поучаствовать в дележе вознаграждений», говорит Норвиг.

Если мы хотим развивать промышленность и этические стандарты и при этом четко осознавать, что поставлено на карту, то важно создать мозговой штурм с участием специалистов по этике, технологиям и лидеров корпораций. Речь идет о том, чтобы не просто заменить людей роботами, а помочь людям.

Источник