Введение
Цель данной статьи — систематизировать виды, источники и, что наиболее важно, методы количественной оценки смещения в контексте применения ИИ к историческим/археологическим исследованиям, а также предложить рамки для этического проектирования и аудита таких исследований.
1. Источники и типология смещения в исторических моделях ИИ
Смещение проникает в модель на всех этапах:
- Наследственное (историческое) смещение (Historical Bias): Заключено в самих первичных источниках. Данные археологических раскопок смещены в пользу элитных, хорошо сохранившихся памятников; текстовые корпуса отражают взгляды грамотной, часто мужской элиты; картографические источники могут игнорировать сезонные или неформальные пути маргинализованных групп. Модель, обученная на таких данных, усваивает и усиливает эту диспропорцию.
- Смещение отбора (Selection/Sampling Bias): Цифровые коллекции (оцифрованные рукописи, музейные каталоги, базы данных артефактов) являются продуктом избирательной курации прошлых эпох. Например, модель для классификации керамики, обученная на хорошо изученной коллекции из средиземноморских центров, будет плохо работать на материале периферийных регионов.
- Смещение в разметке данных (Label Bias): Категории, которые исследователи присваивают объектам («роскошный товар», «местное производство», «варварский стиль»), несут субъективные культурные и теоретические предпосылки. Алгоритм заучивает эти, возможно, устаревшие или стереотипные, таксономии.
- Смещение конфигурации модели (Algorithmic Bias): Сами архитектуры и функции потерь могут по-разному работать с редкими или неравномерно представленными в данных классами (например, артефактами, специфичными для малоизученной культуры).
- Смещение интерпретации (Interpretation Bias): Склонность исследователей воспринимать численный результат алгоритма (например, кластер на графике) как объективное «открытие», не подвергая критическому анализу лежащие в его основе данные и процесс обучения.
2. Количественная оценка смещения: метрики и подходы
Для борьбы со смещением необходим его измеряемый аудит. В контексте исторических исследований адаптируются следующие метрики из области Fairness ML:
2.1. Метрики групповой справедливости (Group Fairness):
Оценивают, насколько результаты модели различаются для выделенных (часто уязвимых) групп в данных.
- Демографический паритет (Demographic Parity): Вероятность положительного исхода (напр., классификации артефакта как «импортного») должна быть одинаковой для разных групп (напр., найденного на памятниках «элитных» и «неэлитных»). Различие измеряется как *Disparate Impact = P(Ŷ=1|A=a) / P(Ŷ=1|A=b)*, где A — атрибут группы. Значение, сильно отклоняющееся от 1, указывает на смещение.
- Равные возможности (Equal Opportunity): Для уже известных позитивных примеров (например, артефактов, чье происхождение установлено иными методами) точность (True Positive Rate) должна быть одинаковой для всех групп. Equal Opportunity Difference = TPR_A - TPR_B.
- Средняя разность вероятностей (Average Odds Difference): Усредненная разница между TPR и FPR (False Positive Rate) для разных групп.
2.2. Метрики для регрессии и кластеризации:
- Разница в среднеквадратичной ошибке (RMSE Disparity): Оценивает, насколько хуже модель предсказывает значения (например, дату или состав сплава) для объектов из определенной группы.
- Однородность и полнота кластеров (Homogeneity & Completeness): При анализе, например, стилей артефактов, можно проверить, насколько кластеры, найденные алгоритмом, соответствуют известным культурным группам, и не «перемешиваются» ли артефакты маргинализированных культур с доминирующими.
Заключение
Алгоритмы, применяемые к прошлому, не просто анализируют историю — они активно ее конструируют, предлагая новые, облеченные в авторитет чисел и сложных вычислений нарративы.
Список литературы
- Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning: Limitations and Opportunities
- Birhane, A. (2021). Algorithmic injustice: a relational ethics approach. Patterns
- Criado, N., & Such, J. M. (2021). AI and Ethics: A Systematic Review of the Ethical Considerations of Large Language Models. Proceedings of the AIES Conference


