Александър Цокев, "Телелинк": Вече има компютърни червеи, които се разпространяват в самите AI модели
Директорът по информационна сигурност в "Телелинк бизнес сървисис" за киберсигурността в ерата на изкуствения интелект
Седмичният бюлетин на Капитал и Digitalk DemistifAI е вашия източник на информация за еволюцията на изкуствения интелект и неговото въздействие върху бизнеса.
Визитка
Доц. д-р Александър Цокев е директор по информационна сигурност (CISO) в "Телелинк бизнес сървисис" от 2021 г. Той е и мениджър на центъра за сигурност ASOC на "Телелинк бизнес сървисис". Завършил е Технологично училище "Електронни системи" (ТУЕС) и има докторска степен от Техническия университет в София.
Какво ново в киберсигурността?
- Всичко ново е добре забравено старо. Ако има нещо наистина ново, то това е един от първите червеи, насочен към изкуствения интелект (AI). Той се разпространява по един по-особен начин и използва само възможностите на AI, за да направи нещо злонамерено. Защо обаче казвам, че старите неща са си все още на линия и новите не са толкова развити? Защото статистиката от миналата година показва, че има значително увеличение на броя на атаките и злонамерените действия, както и на тяхното разнообразие, но ние винаги сме се сблъсквали с това. Нещата са горе-долу едни и същи в същността си - течове на данни, компрометирани имейли. Рансъмуерът си остава на първо място, социалното инженерство, опитите за модифициране на IBAN номера през кореспонденция, всички тези неща сме ги виждали и преди.Историята сочи, че всяка нова напредничава технология първо се използва за злонамерени цели. Така ли е и с AI?
- Изкуственият интелект не е нещо ново. Това е технология, която се развива от много години. В последно време се наложи генеративният AI като общо нарицателно за целия AI, но преди това имахме системи за разпознаване на образи, за машинно обучение, за връщане на отговор. Тези неща са на по 20 - 30 години. Но да, AI се използва и злонамерено. Често си мисля, че каквото и да измислим ние, хората, винаги ще има някой, който да го използва по злонамерен начин. Спомням си например, когато се появи електронната поща - хората много бързо оцениха възможността да си комуникират по-бързо, но и много хора бързо оцениха възможността да правят измами. Така сме устроени.AI помага на защитата, но помага и на атаката. При защитата може да оценим много по-лесно рискове, да открием аномалия в поведение на потребителите, да систематизираме хаоса. Когато правим тестове за пробив, можем да потърсим препоръка. За съжаление AI пише много хубави подвеждащи писма. Ние сме го пробвали - например взимаме писмо от вътрешна кореспонденция, даваме го на AI и му казваме да напише сходно, но с малко променен контекст. Другите притеснения са свързани с дийпфейк видеата и снимките.
Доколко дийпфейк частта се отнася към киберсигурността?
- Отнася се, защото всъщност това е един от начините, по който хората могат да бъдат подведени. Това е част от социалното инженерство, подход, при който, ако човек има добри знания, актьорски умения, знания по психология, то тогава може да постигне повече, отколкото с която и да било технология. Дийпфейкът е една входна врата за злонамерените действия - да отворят сайтове, да споделят информация.И преди, и сега важи проблемът с образованието, че недостатъчен брой хора имат достатъчно ниво на образование как да се справят със заплахи. Предвид че AI вдига мащаба и сваля разхода за една атака, трябва ли нов подход?
- Този проблем ще се задълбочава и всъщност имаше опити да се уреди нормативно съдържанието, генерирано от AI, да бъде маркирано като такова. Проблем е, защото нещата стават толкова истински, че много хора биха се подвели. Не знам дали станахте жертва на известните автоматични обаждания, но аз останах много учуден от тях. Ясно е, че е обаждане с генерирани отговори, но на база на отговора на човек се даваше смислен отговор от бота. Когато питаш въпроси, които отдалечават от темата, получаваш отговори, които те връщат. Човек на възраст или незапознат с такава технология би се подвел много лесно. Снимковият материал също изглежда много истински.Преди малко ви споменах за един интересен нов червей, който неформално се нарича Morris 2, по името на един от първите интернет червеи, а формално - Com-Prompt-Mized. Това е първият червей, който сам се разпространява в модели с генеративен AI. Той не използва някакви сложни механизми, не използва сложен код и е zero-click, т.е. няма нужда от намеса на потребител. Защо това е проблем и защо това е притеснително? Защото много компании в момента разчитат на генеративен AI да подобрят своите чат ботове. Този червей е така направен, че в момента само със запитвания от типа на "повтори това нещо, след което направи друго нещо" успява да се вмъкне в системите и да се разпространи сред клиентите на една услуга. Оттам нататък се опитва да изпраща спам съобщения, да краде данни, да разпраща пропаганда, да вади информация от бази данни. Това работи само в самата инфраструктура. Интересното е, че механизмът не е сложен програмен код, а просто запитвания.
3 коментара
То и в интелекта на доста хора има червеи.
Нов коментар
За да публикувате коментари,
трябва да сте регистриран потребител.