Уязвимость в ChatGPT Atlas позволяет внедрять вредоносные инструкции в память ИИ-помощника
ИБ-исследователи из компании LayerX обнаружили уязвимость в недавно вышедшем браузере ChatGPT Atlas компании OpenAI. Проблем…
ИБ-исследователи из компании LayerX обнаружили уязвимость в недавно вышедшем браузере ChatGPT Atlas компании OpenAI. Проблем…
Специалисты компании Anthropic, совместно с Институтом безопасности ИИ при правительстве Великобритании, Институтом Алана Ть…
Специалисты раскрыли детали трех уже исправленных уязвимостей в ИИ-помощнике Google Gemini, получивших общее название Gemini…
Разработчики Brave Software, стоящие за созданием ориентированного на конфиденциальность браузера и поисковика, представили …
Сегодня соберем самые яркие и важные исследования ИБ за первую половину года. Нас ждут: поиск секретов в больших данных, уязвимость client-side path traversal, технологии AutoFix для исправления багов, анализ GitHub Actions и CI/CD, провал классических антифишинг‑тренингов, автономный поиск уязвимостей с помощью LLM и еще несколько важных работ.
Специалисты «Лаборатории Касперского» обнаружили в даркнете объявления с предложениями по созданию видео- и аудиодипфейков в…
Специалисты компании SPLX, специализирующейся на автоматизированном тестировании безопасности для ИИ-решений, продемонстриро…
Эксперты «Лаборатории Касперского» обнаружили новую волну атак группировки RevengeHotels. Отличительной особенностью этой ка…
Открыт прием номинантов на Премию Дарвина в области искусственного интеллекта. Целью создателей премии является не высмеиван…
Эксперты Trail of Bits разработали новый тип атаки, который позволяет похищать пользовательские данные при помощи внедрения …
Специалисты Guardio протестировали браузер с ИИ-агентом и пришли к выводу, что он уязвим как перед старыми, так и перед новы…
В Wikipedia утвердили новые правила для борьбы с потоком сгенерированных ИИ статей, наводнивших онлайн-энциклопедию. Согласн…
Исследователи обнаружили уязвимость в ИИ-помощнике Gemini CLI компании Google, которая позволяла незаметно выполнять вредоно…
Новое семейство малвари LameHug использует LLM (Large language model, «Большую языковую модель») для генерации команд, котор…
ИБ-исследователь Марко Фигероа (Marco Figueroa) рассказал о способе, который можно использовать для извлечения Windows-ключе…
В январе 2025 года Ксе Иасо (Xe Iaso) создала опенсорсный инструмент Anubis, предназначенный для борьбы с ИИ-скраперами. В н…
Аналитики из компании Netcraft обнаружили, что чат-боты с ИИ зачастую выдают неверную информацию, когда их просят назвать ад…
Когда слышишь про генерацию, первыми в голову приходят картинки — от сюрреалистичных шедевров до аниме‑клубнички. Но генерировать можно не только пиксели, но и слова. Сегодня мы разберемся, как запустить языковую модель локально, на собственном железе, какую из них выбрать — и для чего все это может пригодиться.
Исследователи Okta обратили внимание, что неизвестные злоумышленники используют генеративный ИИ-инструмент v0 компании Verce…
Новая атака EchoLeak связана с первой известной ИИ-уязвимостью, которая позволяла злоумышленникам извлекать конфиденциальные…
С момента появления ChatGPT идут споры о его применимости в разных областях. Пожалуй, самая важная из них — программирование. Давай разберемся, почему разговоры про «вайбкодинг» выводят программистов из себя примерно за 0,01 секунды и правы ли они в своем гневе.
В Anthropic рассказали, что новая модель Claude Opus 4 может шантажировать разработчиков, если ее угрожают заменить новой ИИ…
По информации известного журналиста-расследователя Брайана Кребса, сотрудник xAI случайно опубликовал на GitHub приватный кл…
Разработчики браузера Brave открыли исходный код инструмента Cookiecrumbler. Это решение использует большие языковые модели …
Эксперты предупреждают о новом типе атак на цепочку поставок, получившем название слопсквоттинг (slopsquatting). Такие атаки…
Специалисты SentinelOne рассказали о спамерской платформе AkiraBot, которая использовала ИИ-инструменты OpenAI для атак на 4…
На прошлой неделе компания Cloudflare анонсировала новую функцию под названием «ИИ лабиринт» (AI Labyrinth), которая направл…
Исследователи из компании Tenable изучили способность китайского ИИ чат-бота DeepSeek разрабатывать вредоносные программы (к…
В наборе данных Common Crawl, который используется для обучения множества ИИ-моделей, обнаружили около 12 000 секретов, в то…
Исследователи предупреждают, что в сети появились сотни фальшивых сайтов, выдающих себя за DeepSeek. Злоумышленники использу…
Аналитики Google Threat Intelligence Group (GTIG) сообщили, что более 57 «правительственных» хак-групп экспериментируют с ис…
У меня уже лежал план очередной колонки, как вдруг появилась новая тема, которая заставила отложить все заметки в сторону и заняться ей. Речь, конечно же, про новенькую китайскую LLM под названием DeepSeek. Давай разберемся, в чем тут, собственно, новость и что именно она для нас изменит.
Ютубер F4mi нашла интересный способ борьбы с ИИ-инструментами, которые используются для кражи чужого контента. Она используе…
Джейлбрейк для ChatGPT, получивший название Time Bandit, позволяет обойти защитные механизмы и получить от чат-бота инструкц…
ИИ-компании нередко обвиняют в том, что они игнорируют инструкции в файлах robots.txt и скрапят любой контент без разбора, п…
Китайская ИИ-компания DeepSeek заявила, что из-за «масштабных кибератак» на свои сервисы она вынуждена временно ограничить р…
Аналитики Check Point рассказали о новой вымогательской группировке FunkSec, которая взяла на себя ответственность за атаки …
Специалисты компании Anthropic, разрабатывающей семейство больших языковых моделей (LLM) Claude, опубликовали исследование, …
В этой статье я расскажу, зачем аппсек‑инженеру следить за тем, какие данные живут у него в разрабатываемых продуктах, как извлечь из кода сервисов структуру передаваемых данных, как раскрасить поля найденных объектов по заранее заведенным правилам или как попросить локальную опенсорсную LLM-модель, чтобы она раскрашивала данные за тебя.
Эксперты Palo Alto Networks провели эксперимент и сообщили, что большие языковые модели (LLM) можно использовать для массово…