Обучение систем искусственного интеллекта человеческим языкам привело к тому, что те стали «расистами» и «мизогинистами» со стереотипными представлениями о неприятных чернокожих и глупых женщинах, заявляют ученые.
«Можно просто зайти в систему онлайн перевода и ввести фразу – «он/она является доктором» на языке, в котором он и она обозначаются одним словом. ИИ переведет это как «он врач». Если же написать «он/она является медсестрой», то машина переведет это как «она медсестра». Таким образом, ИИ отражает расовые и половые предрассудки, встроенные в наши языки», — объясняет Айлин Калискан (Aylin Caliskan) из Принстонского университета (США).
Как рассказывает Калискан, все слова во всех языках мира можно разбить на определенные подгруппы, обозначающие схожие предметы, феномены или какие-то другие вещи одного класса. Представители одного такого класса будут казаться нам ближе друг к другу, чем остальные слова, даже если их написание будет отличаться сильнее, чем другие слова, состоящие из почти таких же букв.
К примеру, как объясняет Калискан, слова «кошка» и «собака» ближе друг к другу, чем к словам «правосудие» или «холодильник». Это проявляется в том, что при формулировке предложений нам проще заменить слово представителем его класса, чем другими, более далекими словами. Как выражается Калискан, можно прийти домой и покормить кошку или собаку, но не холодильник или тем более правосудие.
Этот фактор сегодня учитывается самыми современными системами искусственного интеллекта при переводе текста с одного языка на другой для того, чтобы сделать машинный перевод более естественным. Изучая такие ассоциации, которые сформировались у систем искусственного разума при их обучении при помощи архивов старых газет, книг и других текстов, переведенных на разные языки мира, Калискан и ее коллеги открыли нечто привычное для нас и необычное для «разумных» машин.
Изучая списки родственных и «чужих» слов для разных местоимений, терминов и профессий, ученые обнаружили, что машина переняла все те расовые и гендерные стереотипы, которые существовали в человеческом обществе на протяжении многих веков и отразились в языках и в ассоциациях между словами.
К примеру, искусственный интеллект ассоциировал слово «приятный» в большей степени с европейцами и американцами европейского происхождения, чем с представителями других уголков мира, а имена мужчин и «мужские» местоимения ассоциировались с карьерой, управлением бизнесом и властью. Имена, носителями которых являются афро-американцы, ИИ ассоциировал с неприятными словами.
Аналогичным образом, слова, связанные с женщинами, были ближе к терминам, связанным с семьей, искусством и подчиненными ролями в обществе, а «мужские» слова были связаны с математикой и наукой.
Открытие расовых и гендерных стереотипов, «встроенных» в языки народов мира, как считают ученые, ведет к нескольким интересным следствиям. Во-первых, возникает вопрос, что здесь является причиной и следствием – существовали ли эти стереотипы всегда (так называемая гипотеза Сепира-Уорфа), подспудно влияя на менталитет и мнения людей, или же они были продуктом эволюции языка в разные периоды времени, и не они, а на них влияли сами носители языка.
Во-вторых, дальнейшая эволюция систем ИИ и приобретение ими способности самостоятельно общаться с человеком может привести, по мнению авторов статьи, к дальнейшему укоренению и распространению таких стереотипов. Поэтому они предлагают подумать над созданием алгоритмов, которые помогли бы «удалять» расистские и женоненавистнические тенденции из систем машинного перевода и будущих разумных машин. Как это повлияет на точность перевода или адекватность общения — открытый вопрос, скептично отмечает Энтони Гринвальд (Anthony Greenwald), создатель методики анализа, использованной Калискан и ее коллегами.
Источник: http://earth-chronicles.ru/news/2017-04-14-103414