Алексей Гринбаум — физик, философ, сотрудник института
CEA-Saclay (Франция), исследователь лаборатории философии науки Комиссариата по атомной энергетике и альтернативным источникам энергии Франции, координатор Европейской обсерватории нанотехнологий.
____
Лекция прочитана на ГикПикнике-2019 в Санкт-Петербурге, на треке «Этика». Трек «Этика» организован Обществом скептиков при поддержке подкаста «КритМышь».
____
Зачем искусственному интеллекту этика?
Домашний робот может человека покалечить, чатбот — оскорбить. Автономные системы становятся участниками человеческих конфликтов, иногда же сами их провоцируют. 18 марта 2018 года беспилотный автомобиль компании «Убер» совершил смертельный наезд на женщину, переходившую дорогу в одном американском городе. Впервые пешеход принял смерть от алгоритма — кто за это несет ответственность?
Ответ на этот вопрос срочно необходим, потому что технологии в современном мире распространяются все быстрее и новых инцидентов не избежать. Но было бы иллюзией полагать, что такой ответ может быть чисто техническим. Обеспечить полное отсутствие конфликтов во взаимодействии человека и машины, создать некую «добрую машину» нельзя. Возможная альтернатива: сделать так, чтобы пользователь даже спонтанно не присваивал машине статус лица, наделенного моралью. Достичь этого можно, лишь прибегнув к случайному при разработке алгоритма; лишь случайный выбор способен избавить машину от ответственности, которую ей приписывают пользователи.
Алексей Гринбаум рассказывает, как подобные этические вопросы ставятся и решаются, с одной стороны, программистами — технически, в коде; с другой стороны, обществом — политически и этически, через вычленение мотивов, соединяющих цифровую реальность и миф.
Наш сайт http://www.skepticsociety.ru/
Наш второй канал со стримами: https://goo.gl/igkyG9
Донаты: http://www.donationalerts.ru/r/skepticsociety
Наши соцсети:
ВКонтакт: http://vk.com/skepticsociety
Facebook: https://www.facebook.com/skepru/
Instagram: https://www.instagram.com/skepticsociety_rus/
Телеграм: https://t.me/Criticalth