Агент Google AI виявив критичну уразливість SQLite до її експлуатації

ГоловнаНовини* Google використала свою платформу на основі штучного інтелекту, щоб виявити серйозну вразливість у відкритій базі даних SQLite до того, як вона була широко використана.

  • Уразливість, зареєстрована як CVE-2025-6965, є вразливістю пам'яті, яка впливає на версії до 3.50.2.
  • Штучний інтелект, названий "Великий Сон", виявив загрозу, потенційно зупинивши активні спроби її експлуатації.
  • Google просуває гібридний підхід до безпеки для агентів ШІ, щоб допомогти зменшити ризики від вразливостей та злочинних дій.
  • Це перший задокументований випадок, коли агент ШІ зупинив вразливість до її використання в реальному світі. 16 липня 2025 року Google оголосила, що її система виявлення вразливостей на основі ШІ виявила критичну помилку в двигуні бази даних SQLite до того, як зловмисники могли нею скористатися. Виявлення стосувалося проблеми, позначеної як CVE-2025-6965, і було знайдено «Великим Сном», агентом ШІ, створеним у співпраці між Google DeepMind та Google Project Zero.
  • Реклама - Уразливість отримала бал CVSS 7.2, що сигналізує про серйозний ризик. Згідно з даними розробників проєкту SQLite, зловмисники, здатні впроваджувати шкідливий SQL-код, можуть викликати переповнення цілого числа та читати за межами меж масиву, що призводить до непередбачуваної поведінки або витоків даних. Всі версії SQLite до 3.50.2 підлягають ризику.

Google описала цей недолік безпеки як критичний, зазначивши, що зловмисники знали про нього і могли б його використати. “Завдяки поєднанню розвідки загроз і Big Sleep, Google змогла насправді передбачити, що вразливість незабаром буде використана, і ми змогли її заблокувати заздалегідь,” сказав Кент Уокер, президент з глобальних справ Google та Alphabet, у офіційній заяві. Він також сказав: “Ми вважаємо, що це перший випадок, коли агент ІІ був використаний для безпосереднього зірвання спроб використати вразливість у диких умовах.”

Минулого року Big Sleep також виявив окрему вразливість SQLite — недостатній потік буфера стека — яка могла призвести до збоїв або використання зловмисниками довільного коду. У відповідь на ці інциденти Google випустила білу книгу, яка рекомендує чіткий контроль з боку людини та суворі операційні межі для агентів штучного інтелекту.

Google стверджує, що традиційні засоби безпеки програмного забезпечення недостатні, оскільки вони не забезпечують потрібний контекст для агентів ШІ. Водночас безпека, що ґрунтується лише на судженнях ШІ, не надає сильних гарантій через такі вразливості, як ін'єкція запитів. Щоб впоратися з цим, Google використовує багатошаровий підхід "захист у глибині", який поєднує традиційні заходи безпеки та засоби захисту на основі ШІ. Ці шари спрямовані на зменшення ризиків від атак, навіть якщо внутрішній процес агента маніпулюється загрозами або несподіваним введенням.

Попередні статті:

  • Трейдер Джеймс Вінн повертається до Hyperliquid з ставкою на біткойн у 20 мільйонів доларів
  • Canton Network додає провідні ліквідні компанії для ончейн застави
  • Nexo знижує ставки гнучких заощаджень AXS після змін у протоколі
  • DEA конфіскує $10 млн у криптовалюті картелю Сіналоа під час обшуків у Флориді
  • Гонконг презентує рамки LEAP, встановлює глобальний крипто-правила
  • Реклама -
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити