Разработки в области искусственного интеллекта в последние годы демонстрируют значительные успехи. Однако у роботов остается много слабых мест. Работу нейросети нельзя предварительно протестировать: программисты не знают, как после обучения та сможет решать проблемы. Об этом 21 ноября заявил антивирусный эксперт «Лаборатории Касперского» Дмитрий Черноус, выступая на форуме Russian Tech Week 2018.
По словам эксперта, непредсказуемость результатов работы искусственного интеллекта приводит к курьезам.
«Например, Google создал приложение Google photo app, умевшее отличать друг от друга разные объекты. Это приложение постоянно классифицировало людей с черным цветом кожи как горилл. Программисты три года пытались исправить ошибки, но так и не смогли, отключив в результате идентификацию людей», – отметил эксперт.
По его словам, еще один курьезный случай произошел с компанией Microsoft, создавшей чат-бота по имени Tay.
«Чат-бот обучался новой информации, которую давали общавшиеся с ним люди. За день пользователи Twitter, где работал чат-бот, сделали его фашистом. В результате его пришлось отключить», – рассказал Дмитрий Черноус.
Он добавил, что умные алгоритмы в настоящее момент не обучены этике.
«Получив информацию о том, что астматики с пневмонией умирают реже, чем астматики без нее, искусственный интеллект сделает вывод, что первым помощь не нужна. Оценивая риски рецидива у преступников, робот обязательно будет учитывать цвет кожи преступника, став нацистом», – подчеркнул эксперт.
В заключение Дмитрий Черноус отметил, что в искусственный интеллект надо внедрять умение решать этические проблемы. Только после того как ИИ начнет понимать их, человек сможет полностью ему доверять.
Источник
Автор: rina