Традиционная деидентификация данных — это кувалда, которая превращает полезную бизнес-аналитику в бесполезный цифровой шум. Как отмечают Анудж Садани и Дипак Кумар из Infrrd.ai, когда вы заменяете имена и адреса статичными заглушками вроде [PERSON] или [LOCATION], данные теряют всякую ценность для обучения NER-моделей или построения поисковых индексов в RAG-системах. Современному бизнесу нужно не просто замазывать чувствительную информацию, а интеллектуально подменять её реалистичными суррогатами, сохраняя структуру и контекст документа без отправки данных в облако.
Технический стек, предложенный в Infrrd.ai, решает эту задачу через локальный конвейер, работающий на грани экстремальной эффективности. Архитектура объединяет классификатор токенов на базе 1.5B Mixture-of-Experts (MoE), который выявляет конфиденциальные фрагменты, и 1-битную малую языковую модель (SLM) Bonsai-1.7B для генерации замены. Это позволяет создавать контекстуально уместные вымышленные имена или даты силами обычных локальных процессоров. Чтобы сохранить целостность документа, система использует правило-ориентированный генератор: если имя подменяется один раз, оно остается тем же на протяжении всего текста. Это критически важно для связности отчетов, где Пётр Иванов не должен превратиться в Ивана Сидорова к третьему абзацу.
Главным камнем преткновения при использовании сжатых до 1 бита моделей стал эффект «регургитации» — когда SLM слепо копирует примеры из промпта вместо генерации новых данных. Исследователи Infrrd.ai доказали: это не баг квантования, а провал логики проектирования промптов. И 1-битные, и 1.58-битные тернарные модели выдавали идентичные ошибки при использовании статичных примеров. Проблему решили через механизм Locale-Conditioned Few-Shot Prompting: система использует MD5-хэш входных данных для выбора примеров из пула, отфильтрованного по региональному признаку. В итоге 482 из 482 вызовов модели прошли успешно — без «эха» в ответах и с сохранением лингвистической точности.
Впрочем, красивые тексты от SLM таят в себе ловушку, которую стоит учитывать техническим директорам и лидам. Тесты Infrrd.ai показывают отрезвляющий результат: при обучении NER-модели на оригинальных данных точность (F1) составляла 0.960. Гибридный подход с использованием SLM выдал всего 0.346, заметно уступив даже простому генератору правил (0.506). Ирония в том, что для обучения алгоритмов высокая вариативность простых правил оказалась полезнее, чем «естественное» звучание нейросети. Сегодняшний приоритет — не просто добиваться человекоподобности, а расширять разнообразие синтетических распределений, чтобы комплаенс-фильтры случайно не сузили кругозор моделей, которые они призваны питать.