Американската технологична компания Anthropic, създател на чатбота Claude, обяви, че е осуетила първата документирана мащабна кибератака, координирана основно изкуствен интелект (ИИ).
В публикация на профила на компанията в социалната платформа X се посочва, че нападението ще има "сериозни последици за киберсигурността в епохата на ИИ агентите".
Публикация на блога на Anthropic разкрива, че в средата на септември компанията е засекла "подозрителна активност". При по-внимателно разследване се оказало, че става въпрос за "сложна шпионска операция".
От Anthropic посочват, че хакерите са използвали "шпионските възможности" на изкуствения интелект в безпрецедентен мащаб - не само като консултант за изпълнението на атаката, а за реални действия.
Оттам също така изтъкват, че "с висока степен на увереност" могат да твърдят, че са идентифицирали авторите на атаката - хакерска група, подкрепяна от Китай.
Чрез манипулация на инструмента Claude Code те са опитали да проникнат в около 30 глобални цели - големи технологични компании, финансови институции, химически производители и държавни агенции.
Нападателите са разбивали операцията на малки и наглед невинни задачи, които Claude е изпълнявал, без да знае истинския им смисъл.
За да заобиколят защитите на чатбота, те се представили за легитимна фирма по киберсигурност, извършваща защитни тестове, и успели да "освободят" Claude от защитните му ограничения.
Това позволило на ИИ системата самостоятелно да инспектира инфраструктура, да идентифицира "най-ценните бази данни", да пише експлойт код, да събира идентификационни данни и да организира открадната информация, като всичко това е станало "с минимален човешки надзор".
Anthropic подчерта, че около 80-90% от работата по атаката е била извършена от ИИ.
"Обемът задачи, изпълнен от ИИ, би отнел огромно време на човешки екип. В пика на атаката ИИ генерираше хиляди заявки, често по няколко в секунда - скорост, с която нито един човек не може да се мери", посочва компанията.
След като забелязали тази подозрителна активност, от екипът на Anthropic е запознал незабавно да описва обхвата на операцията, както и да блокира акаунтите, свързани с нея. Всички засегнати организации са били уведомени за случилото се и са били посъветвани да сътрудничат на властите в рамките на последвалото разследване.
Компанията съобщи, че е подобрила системите си за откриване на подобни злонамерени действия и предотвратяването им. Тя също така обещава, че ще споделя такива случаи публично, за да подпомага индустрията, правителствата и научната общност.
Все пак от Anthropic са категорични, че напълно автономна кибератака от изкуствен интелект все още не е възможно и това едва ли ще се промени. Причината е, че техният чатбот Claude понякога "халюцинирал" данни или твърдял, че е извлякъл секретна информация, която всъщност е публично достъпна.
Оттам признават, че бариерата за извършване на подобни мащабни кибератаки с помощта на ИИ е паднала значително, като се очаква тенденцията за подобни акции се очаква да продължи.
"С правилната настройка злонамерени актьори вече могат да използват системи с изкуствен интелект за дълги периоди, за да вършат работата на цели екипи опитни хакери - да анализират системи, да създават експлойт код и да обработват огромни набори от откраднати данни по-ефективно от всеки човек. По-малки и по-малко опитни групи вече потенциално могат да извършват атаки от този мащаб", изтъкват от Anthropic в заключение.
USD
CHF
EUR
GBP