OpenAI начала «угрожать» изучающим её последнюю ИИ-модель

Компания начала выдавать предупреждения пользователям, изучающим его внутреннюю работу, сообщает Ferra.

Модели o1-preview и o1-mini, представленные на прошлой неделе, отличаются развитыми способностями к рассуждениям и пошаговым процессом решения проблем. Однако OpenAI решила скрыть цепочку мыслей, лежащую в основе этих моделей, представив лишь «отфильтрованную интерпретацию», пишут СМИ.

Энтузиасты и исследователи, стремящиеся раскрыть скрытые рассуждения, использовали методы «обмана» ИИ, чтобы он всё сам рассказал. Несмотря на первые успехи, OpenAI, как сообщается, пресекает эти попытки, отправляя предупреждающие электронные письма тем, кто пытается обойти защиту.

OpenAI объясняет это решение стремлением «сохранить конкурентные преимущества» и «улучшить пользовательский опыт», хотя критики утверждают, что это ограничивает прозрачность.

Автор: Редактор