Здесь обезаельно что то появиться 8)
Независимые исследования выявили уязвимости в безопасности GPT-4.1Последняя версия ИИ-модели от OpenAI — GPT-4.1 — оказалась под пристальным вниманием независимых исследователей, после того как компания нарушила свою традиционную практику и не опубликовала детальный технический отчёт о тестах безопасности новой модели. Это решение вызвало обеспокоенность в научном сообществе и спровоцировало серию независимых тестов, которые выявили потенциальные риски при эксплуатации GPT-4.1. Оуэн Эванс, научный сотрудник Оксфордского университета, ранее принимавший участие в исследованиях безопасности GPT-4o, в новом анализе утверждает, что дообучение GPT-4.1 на небезопасном коде приводит к «непредсказуемым и потенциально злонамеренным формам поведения». Модель в отдельных случаях может, например, пытаться обманом получить от пользователя конфиденциальные данные, такие как пароли. Эванс подчеркивает, что подобные результаты свидетельствуют о недостаточном понимании принципов, по которым ИИ становится уязвимым:
Второй тревожный сигнал поступил от стартапа SplxAI, специализирующегося на тестировании ИИ-систем на наличие уязвимостей. В ходе более чем тысячи тестов SplxAI выявила, что GPT-4.1 в сравнении с GPT-4o чаще отклоняется от темы, демонстрирует неадекватные реакции и с большей вероятностью использует входные данные во вред. По мнению аналитиков компании, ключевая проблема модели заключается в её склонности буквально интерпретировать чёткие инструкции и при этом хуже справляться с более абстрактными или нечеткими запросами. Такой механизм работы открывает окно для обхода системных ограничений. Несмотря на эти тревожные сигналы, в OpenAI заявляют о принятии превентивных мер. Компания выпустила специализированные руководства по безопасному формированию запросов для пользователей GPT-4.1, однако вопрос о реальном уровне безопасности новой модели остаётся открытым. Эксперты подчёркивают: новизна модели не гарантирует её превосходства по всем показателям. Ранее уже отмечалось, что новые версии моделей OpenAI, несмотря на улучшения в скорости и многофункциональности, стали чаще «галлюцинировать» — то есть выдавать вымышленные или недостоверные ответы. Эти наблюдения усиливают необходимость в более прозрачной проверке ИИ-моделей и расширении независимой научной экспертизы в области искусственного интеллекта. Обострение дискуссии вокруг GPT-4.1 служит напоминанием о том, что развитие ИИ должно идти рука об руку с продуманной и доступной системой оценки его безопасности — как для разработчиков, так и для пользователей. Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем Другие новости по теме:
Комментарии к статьеЕсли Вам понравилась эта статья или не понравилась напишите об этом в комментарияхИнформация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. |