Во многих случаях контент в соцсетях помечался как созданный искусственным интеллектом лишь потому, что он был отредактирован в Adobe Photoshop, но не полностью сгенерирован нейросетью вроде Stable Diffusion или DALL-E, сообщает 3DNews.
При экспорте изображения из Photoshop в него включаются метаданные, которые, по сути, просто выполняют функцию отказа от ответственности — некоторые инструменты графического редактора действительно работают на базе генеративного ИИ, а значит, и само изображение может быть изменено ИИ. Как только автоматизированные системы Meta решали, что контент был частично «Создан ИИ», пользователь удалить эту метку уже не мог. Но полностью созданное ИИ изображение и небольшая правка настоящей фотографии — далеко не одно и то же, поэтому присвоение метки «Создано ИИ» в обоих случаях едва ли поможет аудитории.
В Meta приняли решение разделить редактирование при помощи ИИ и полностью созданные ИИ изображения.
«Мы обнаружили, что наши пометки, основанные на этих индикаторах, не всегда соответствовали ожиданиям людей и не всегда предоставляли достаточный контекст. <..> мы заменим пометку „Создано ИИ“ на „Информация об ИИ“, нажав на которую люди смогут получить дополнительные сведения», — сообщили в Meta.
В заботе о благе пользователей компания решила помечать созданный ИИ контент, но развёрнутая ей система полагалась на стандарт Content Credentials, принятый Коалицией за происхождение и подлинность контента (Coalition for Content Provenance and Authenticity, C2PA). Этот стандарт предполагает простой добавление метаданных в файл — продукты Adobe добавляют его при любой степени редактирования с участием ИИ, и эти данные можно легко удалить, например, сделав снимок экрана и вставив изображение в новый документ. А универсального решение для выявления созданных ИИ материалов до сих пор не существует — пользователям интернета рекомендуется проявлять бдительность.