>>904195 >Меня лично интересуют конкретные возможности испортить свои данные, чтоб никому не досталось. гарантироованный способ - никуда никогда не выкладывать) остальное - с определенной вероятностью
>>904038 Я уже написал, что убрать артефакты минутное дело с помощью негативного промптинга, всё, притом захуярить можно хоть всю папку батчем. Потом модель легко тренируется на этих изображениях как будто нихуя и не было. То что модель спутает работы сакимичан с вангогом я блять вообще хз как это должно работать, я не корпорат.
Предположим, у тебя часть изображений отравлены, ты сортируешь их отдельно, чистишь вилкой и засовываешь обратно. Если модель не задетектила стиль какого-то чёрта, ты можешь это вручную написать в файлике, опять же батчем. Даже этап есть такой data cleansing называется, перед тем как модель тренировать, без него любая нейронка выдавала бы полную хуйню.
>>904620 главная приколюха в том, что не понятно толком какой этап оно сбивает исходя из опыта сбивания с толку сверточных сетей - там делается такой прикол что проводится "обучение" только градиентный спуск не к весам применяется а к изображению и тогда любую картинку под любой клас можно подогнать с минимальными искажениями но тут толком не понятно, как они предполагаюют что вместо отравленой коровы на которой обучалось получится не корова а сумка или что там они пишут, короче надо это на практике тестить все, чтобы понять что из этого работает если вообще работает а что нет