Прочитал статью про bias LLM - 2024.03.21
Прочитал тут статью про систематический bias (не знаю, как оно по русски? “искажения” вроде) когда ЛЛМ кодирует текстовые данные. В статье использовали данные реальных интервью с беженцами и обнаружили, что ЧатГПТ систематически искажает их слова и недокодирует. Проблема, предполагают авторы, в том, что ЧатГПТ учили на текстах написанных “белыми людьми среднего класса”, а не азиатами-беженцами. Например, в этой статье есть примеры, что он занижает то, насколько родители-беженцы хотят успеха для своих детей. И зависит это от статуса беженцев, пола, и т.п. Основные выводы статьи, что с ЧатГПТ можно работать, но нужно следить как он кодирует и насколько хорошо у него получается.
Статья написана исследователями Всемирного Банка и, как я понял, у них цель была понять насколько можно использовать ЛЛМ в исследованиях для выработки политик ВБ. Надеюсь, что статья приведет к тому, что они там не будут без оглядки все отдавать на откуп ЧатГПТ. Как альтернативу, авторы сделали свою систему кодирования, которая кодирует тексты при помощи обычных инструментов - scilearn и т.п. библиотек. Авторы утверждают, что такой “примитивный” метод позволяет добиться качества лучше чем ЧатГПТ и практически полного отсутствия bias.
Статья актуальная еще и тем, что в ней авторы использовали недорогой ChatGPT 3.5 и Лламу-2. Они в целом доступны и для моих исследований - я думал использовать Мистраль. Я в своем анализе чата кудрявых, правда, не кодирую данные, а пытаюсь “извлекать” данные, но я не уверен, что ЧатГПТ сможет делать это достаточно эффективно. Впрочем, у меня ставки не такие высокие как в ВБ, где от результатов исследований зависит выделение денег. Поэтому, я надеюсь попробовать и ЧатГПТ и собственные разработки: хочу попробовать в деле интерпретируемые модели ИИ😊
Статья: Ashwin, Julian, Aditya Chhabra, and Vijayendra Rao. “Using Large Language Models for Qualitative Analysis can Introduce Serious Bias.” arXiv preprint arXiv:2309.17147 (2023).