Искусственный интеллект — это одна из самых быстроразвивающихся технологий, но в отличие от других технологий, она время от времени вызывает вопросы, касающиеся путей ее развития, пишет на портале Information Age Питер Уоллес, коммерческий директор британского отделения компании GumGum, занимающейся обучением ИИ компьютерному зрению.

Одним из таких вопросов является влияние ИИ на рынок труда, другим, который возник несколько недель назад, является его предвзятость по отношению к женскому полу. Специалисты по машинному обучению Amazon обнаружили, что ИИ, который обрабатывает резюме кандидатов на должности в компании, дискриминирует женщин-соискателей. Эта особенность не закладывалась в систему умышленно — она явилась результатом глубокого обучения (Deep Learning).

Дело в том, что система проходила обучение на резюме, поступивших в компанию за последние 10 лет. Большая часть этих резюме принадлежала мужчинам, что в целом отражает положение дел в ИТ-отрасли. В результате ИИ Amazon решил, что соискатели-мужчины более предпочтительны, чем женщины. Amazon отредактировала алгоритм, но корректировка не давала гарантий, что он не будет дискриминировать кандидатов по другим признакам, поэтому компания решила отказаться от использования системы.

Проблема Amazon кроется в методах обучения ИИ. На базовом уровне глубокое обучение — это анализ прошлых данных для прогнозирования и понимания будущего, и если он выявляет мезогинию (неприязнь либо укоренившееся предубеждение по отношению к женщинам), ИИ может воспринять ее как норму, что доказывает насколько его «воображение» несовершенно и как многому ему еще предстоит обучиться.

Визуальное распознавание контента в целом и идентификация лиц в частности — одна из таких областей. Последняя технология применяется во все возрастающем количестве приложений, поэтому точность определения зрительных образов сложно переоценить. К примеру, от точности работы биометрических ИИ-платформ распознавания лиц в аэропортах зависит безопасность пассажиров (технология призвана не позволить проникнуть на борт террористу) или допуск к определенным банковским сервисам. Распознавание лиц людей проникает во все сферы общественной жизни, поэтому важно убедиться, что системы глубокого обучения опираются на достоверные данные — логическую надстройку для повышения эффективности бизнеса. Очевидно, что машинное обучение в отрыве от точных данных приведет к искажению картины и навредит бизнесу.

Машинное обучение создано для больших данных

Современный объем генерируемых в мире данных составляет около 2,5 квинтиллиона байтов в день. Учитывая, что эти данные никак не структурированы и не маркированы, они непригодны для контролируемого машинного обучения. Под ним подразумевается обучение ИИ-систем на базе крупных по объему и разрозненных данных — они являются залогом успешности обучения и получения в ближайшем будущем доверительности результатов, тогда как «питание» глубокого обучения малыми порциями ведет к получению предвзятых выводов и «переобучению». Другими словами, порции небольших данные научат машину видеть только деревья, но не древесину.

Простой пример. Если требуется обучить ИИ-сеть распознаванию привлекательных лиц, но применять для этого только фотографии белых людей, то она научится выделять из сонма лиц только их. В прошлом году такая избирательность повредила разработчику приложения FaceApp. Сервис использует нейронные сети, чтобы изменить вид лица на фотографии. Он может добавить улыбку или заставить пользователя выглядеть старше или моложе, но разработчик совершил ошибку, добавив в фотофильтр «Горячий» (он создан для придания лицам большей привлекательности) опцию, которая «отбеливала» лица чернокожих людей.

Контролируемое vs. неконтролируемое (глубокое) обучение

Нейронная сеть во многом напоминает поведение младенца, который по-разному себя ведет, когда он находится под присмотром или предоставлен самому себе. Если за ним не приглядывать и ничему не обучать, он все равно будет узнавать что-то новое, но это будет происходить непредсказуемым образом. Как можно догадаться, обучаемая таким образом нейронная сеть станет неконтролируемой. Тем временем контролируемое обучение (обучение с учителем) предусматривает принудительное обучение с помощью примеров или обучающих выборок. В случае с обучением распознаванию образов нейронной сети предлагают идентифицировать визуальный контент начиная с фотографий и заканчивая видео и графикой при помощи определенных меток и тегирования.

Пикселизация/распознавание образов — когда-то узкопрофильное направление обучения нейронных сетей переросло эти рамки и теперь они, как правило, проходят контролируемое обучение и добились в этом ремесле вершин точности, недостижимой для человеческого глаза. Может показаться, что неконтролируемое обучение ИИ не имеет смысла, однако это не так. Предоставляя глубокому обучению творческую свободу — хаотическое потребление данных, поиск шаблонов, установку связей, выявление контекста — можно рассчитывать на то, что это приведет к неожиданным результатам.

Пока что глубокое обучение несравнимо хуже по качеству работы в сравнении с контролируемым, но нужно понимать, что эта технология делает первые шаги. В перспективе она научится распознавать образы, обходясь без специальных маркировок. Это в итоге приведет к тому, что обучение нейронных сетей не будет ограничиваться лишь существующими наборами данных, более того, ИИ-сети вообще не будут на них полагаться.

ИИ нужно больше свободы

Как уже говорилось, ИИ — топовая технология, поэтому разработчики неустанно пополняют ее закрома большим количеством моделей обучения, однако большая часть из них непригодна для использования в глубоком обучении. Пока что это только предположение, но, возможно, будущее глубокого обучения кроется в неконтролируемом обучении. Почему? Потому что вначале родители помогают детям сделать первые шаги, но затем они все постигают самостоятельно, учась на своем опыте и ошибках.

Таким образом, развитие глубокого обучения зависит от постоянного пополнения этих систем качественными, разнообразными, структурированными и маркированными данными, чтобы они получали полноценное, а не однобокое представление о мире и могли вывести объективные и логические результаты. Однако не стоит забывать о другой стороне глубокого обучения сетей, сдвигая фокус с их тренировки с помощью данных в сторону неконтролируемых методов обучения, то есть они должны не просто анализировать информацию, но и подражать поведению людей, учиться мыслить так же, как они.