В этом году на конференции Kaspersky NEXT, прошедшей в Лиссабоне 14 октября, были представлены результаты исследований самых авторитетных европейских экспертов в сфере кибербезопасности и искусственного интеллекта (ИИ). Спектр поднятых вопросов был очень широким — от машинного обучения и ИИ до защиты Интернета вещей (IoT). Сегодня мы кратко расскажем о пяти самых интересных темах, затронутых на конференции.
Как сделать мир справедливее с помощью ИИ
Задумывались ли вы, сколько решений сегодня принимают машины, а не люди? А на какую их часть влияют данные о расе, половой принадлежности и происхождении? Крити Шарма (Kriti Sharma), основатель инициативы AI for Good, рассказала об алгоритмах, постоянно используемых для принятия решений о том, кто мы и чего хотим.
По мнению Крити, чтобы на самом деле сделать ИИ лучше, нам нужно привлечь к его разработке людей самого разного происхождения, пола и национальности. Смотрите ее выступление на Ted Talk о влиянии систематических ошибок, которые вносит человек, на решения, принимаемые машиной.
Гендерная принадлежность ИИ и ее последствия
Вспомните Алексу, Сири и Кортану. Что у них общего? У всех женские голоса — и все созданы, чтобы покорно исполнять ваши команды. Но почему так? Неужели и технологии не свободны от гендерных стереотипов и лишь способствуют их укреплению? На NEXT 2019 сразу две панельные дискуссии были посвящены гендерным вопросам в сфере ИИ. Исследования показывают, что людям комфортнее общаться с цифровыми помощниками, если у тех женские голоса. Является ли это отражением ситуации в обществе?
Что же можно сделать, чтобы победить неравенство полов в ИИ? Возможно, следует использовать какой-то гендерно-нейтральный голос или даже создать отдельный пол для роботов и ИИ. Кроме того, важно позаботиться о том, чтобы этническое и социокультурное многообразие команд, разрабатывающих ИИ, отражало разнообразие обслуживаемых им пользователей.
https://twitter.com/kaspersky/status/1183739717965230087
Роботам доверяют больше, чем людям
Социальный робот — это система с искусственным интеллектом, взаимодействующая с людьми и другими роботами. От тех же Сири или Кортаны их отличает то, что у роботов есть физическое воплощение. Тони Балпэйм (Tony Balpaeme), профессор робототехники Гентского университета, считает, что с распространением социальных роботов масштабнее станут и проблемы взаимодействия человека и робота.
Балпэйм описал несколько научных экспериментов, проведенных им и его командой. Например, они сравнили способности людей и роботов по выведыванию конфиденциальной информации (дата рождения, родной город или улица, любимый цвет и тому подобное), которую в теории можно использовать для сброса паролей. Забавно, что роботам доверяют больше, чем людям, поэтому более охотно выдают им такие данные.
Также он показал результаты эксперимента с физическим проникновением. Группа людей, задачей которых была охрана здания или территории, легко пропустила туда симпатичного робота. Не имея реальных причин считать робота безопасным, люди предположили, что он безобиден, — этой тенденцией можно легко воспользоваться в злонамеренных целях. Подробнее о социальной робототехнике и этих экспериментах читайте в статье и отчете на Securelist.
https://twitter.com/kaspersky/status/1183683889514078209
ИИ будет создавать очень убедительные дипфейки (deepfakes)
Дэвид Якоби (David Jacoby) из команды Kaspersky GReAT делал доклад на тему социальной инженерии, затронув в том числе тему чат-ботов, ИИ и автоматизированных угроз. Он рассказал, что со временем приложения для распознавания лиц и голоса могут стать уязвимыми к социальной инженерии и другим традиционным мошенническим приемам.
Якоби также упомянул дипфейки — методику синтеза изображения человека с помощью ИИ. Обнаружить такие подделки становится все труднее, и уже сейчас есть опасения, что они могут сильно пошатнуть современную индустрию новостей и даже политическую систему (в частности, серьезно повлиять на выборы).
Главным вопросом здесь остается доверие. Если технология создания дипфейков будет доведена до совершенства, перестанет быть ясно, кому вообще можно верить. Защититься поможет хорошая осведомленность: обучение и новые технологии обнаружения дипфейков.
Как обстоят дела с безопасностью в робототехнике
Другой участник Kaspersky GReAT, Дмитрий Галов, рассказал о ROS (Robot Operating System) — гибкой платформе для написания ПО для роботов. Как и многие другие системы, ROS проектировалась без оглядки на защиту – и поэтому имеет серьезные проблемы с безопасностью. Ее разработчикам следует устранить их до того, как созданные на базе ROS продукты, такие как социальные роботы и беспилотные автомобили, перекочуют из университетских лабораторий в руки потребителей. Активная разработка новой версии ROS уже ведется. Подробнее об этом читайте в отчете Дмитрия Галова.
Бонусный совет: используйте USB Condom
Сотрудники Kaspersky GReAT Марко Пройс (Marco Preuss) и Дэн Деметер (Dan Demeter) рассказывали о том, как защищаться от взлома в командировках. Вы когда-нибудь задумывались, что в вашем номере отеля могут быть скрытые камеры, жучки и двусторонние зеркала?
Для умеренных параноиков мы подготовили пост с советами по безопасности в поездках. Ну а еще большим параноикам стоит обратить внимание на USB Condom — «презерватив» для USB-порта. Да, они реально существуют и используются примерно так же, как и обычные: если вы собираетесь зарядить телефон через незнакомый USB-порт, стоит защитить устройство с помощью этого мини-гаджета. К счастью, в отличие от обычных презервативов, эти можно использовать многократно.
Читайте наш аккаунт в Twitter, чтобы узнать обо всем, что происходило на конференции.