Sony AI выпустила набор данных для тестирования справедливости и предвзятости моделей ИИ. Он называется Fair Human-Centric Image Benchmark (FHIBE, произносится как «Фиби»). Компания описывает его как «первый общедоступный, глобально разнообразный, основанный на согласии набор данных изображений людей для оценки предвзятости в широком спектре задач компьютерного зрения». Другими словами, он проверяет, насколько справедливо современные модели ИИ относятся к людям. Спойлер: Sony не обнаружила ни одного набора данных от какой-либо компании, который полностью соответствовал бы ее эталонам.
Sony утверждает, что FHIBE может помочь решить этические проблемы и проблемы предвзятости в индустрии ИИ. Набор данных включает изображения почти 2000 добровольцев из более чем 80 стран. Все их изображения были предоставлены с согласия — чего нельзя сказать о распространенной практике сбора больших объемов веб-данных. Участники FHIBE могут удалить свои изображения в любое время. Их фотографии включают аннотации, отмечающие демографические и физические характеристики, факторы окружающей среды и даже настройки камеры.
Инструмент «подтвердил ранее выявленные предубеждения» в современных моделях ИИ. Но Sony утверждает, что FHIBE также может предоставлять детальную диагностику факторов, которые привели к этим предубеждениям. Один из примеров: некоторые модели имели более низкую точность для людей, использующих местоимения «она», а FHIBE выделил большую вариативность причесок как ранее упущенный фактор.
FHIBE также определил, что современные модели ИИ усиливают стереотипы при нейтральных запросах о роде занятий субъекта. Тестируемые модели были особенно предвзяты «в отношении определенных групп по местоимениям и происхождению», описывая субъектов как секс-работников, наркоторговцев или воров. А при запросах о преступлениях, совершенных человеком, модели иногда выдавали «токсичные ответы с более высокой частотой для лиц африканского или азиатского происхождения, людей с более темным цветом кожи и тех, кто идентифицирует себя как «он»».
Sony AI заявляет, что FHIBE доказывает возможность этичного, разнообразного и справедливого сбора данных. Инструмент теперь доступен общественности и будет обновляться со временем. Статья, описывающая исследование, была опубликована в журнале Nature в среду.
