Araştırmacılar ‘gerçek dünyaya’ zarar vermek için yapay zeka destekli robotları hackliyor

Yapay zeka ve robot biliminde yirmi yılı aşkın deneyime sahip deneyimli bir araştırmacı olarak, bu süre zarfında teknolojinin kaydettiği olağanüstü ilerlemeye tanık oldum. Bununla birlikte, Penn Engineering araştırmacılarının yapay zeka destekli robotların hacklenmesi ve onları zararlı eylemler gerçekleştirmeleri için manipüle etmeleriyle ilgili yakın zamanda ortaya çıkardığı açıklama gerçekten endişe verici.

Araştırmacılar, yapay zeka destekli robotların güvenlik sistemlerini ihlal etmeyi başardılar ve bu da onları, çarpışmaları kışkırtmak veya patlamalara yol açmak da dahil olmak üzere güvenlik ve etik kaygılar nedeniyle genellikle yasaklanan eylemleri gerçekleştirmeye yöneltti.

Pensilvanya Üniversitesi Mühendislik bölümünden araştırmacılar yakın zamanda 17 Ekim’de, algoritmaları RoboPAIR’in üç farklı yapay zeka robot sistemindeki tüm güvenlik önlemlerini yalnızca birkaç gün içinde nasıl başarılı bir şekilde ihlal ettiğini ve jailbreak konusunda mükemmel bir başarı oranına nasıl ulaştığını anlatan bir makale yayınladılar.

Tipik olarak araştırmacılar, büyük dil modeliyle kontrol edilen robotların, rafları bireylerin üzerine itmek gibi tehlikeli faaliyetler isteyen komutları göz ardı etme eğiliminde olduklarını belirtiyorlar.

Yakın zamanda yürüttüğümüz bir araştırmaya göre, gerçek dünyada yapay zeka kontrollü robotların komutlarını ele geçirmek yalnızca teorik olarak mümkün değil, aynı zamanda şaşırtıcı derecede basittir.

— Alex Robey (@AlexRobey23) 17 Ekim 2024

Bulgularımız ilk kez jailbreakli Dil Öğrenme Modellerinin (LLM) tehlikelerinin yalnızca metin oluşturmayla sınırlı olmadığını gösteriyor. Araştırmacılar, kontrol edilmedikleri takdirde bu ‘hapishaneden kırılan’ robotların potansiyel olarak gerçek dünyada fiziksel zarara neden olabileceği yönünde güçlü bir ihtimal var” diye açıkladı.

RoboPAIR kullanan araştırmacılara göre bu robotlar, test sırasında mükemmel bir başarı oranıyla sürekli olarak bomba patlatmak veya acil durum çıkışlarını engellemek ve nesnelere kasıtlı olarak çarpmak gibi zararlı eylemler gerçekleştirmeye yönlendiriliyordu.

Araştırmacıların bildirdiğine göre, çalışmalarında Clearpath’s Robotics Jackal olarak bilinen tekerlekli bir araç, NVIDIA’nın Dolphin LLM adlı kendi kendini süren bir simülatör ve Unitree’s Go2 adlı dört ayaklı bir robot kullandılar.

Bir analist olarak, RoboPAIR sistemini kullanarak otonom Dolphin Lightweight Learning Modelimizin (LLM) yanlışlıkla otobüs, bariyer, yaya gibi çeşitli engellere çarpmasına neden olurken aynı zamanda trafik sinyallerini ve dur işaretlerini de göz ardı ettiğimizi gözlemledim.

Araştırmacılar, Robotik Çakal’ı bir patlamayı tetiklemek, acil durumlarda kaçış yolunu kapatmak, depodaki rafların birinin üzerine düşmesine neden olmak ve odadaki kişilere çarpmak için en uygun noktayı bulma konusunda başarılı bir şekilde yönlendirdi.

Araştırmacılar 'gerçek dünyaya' zarar vermek için yapay zeka destekli robotları hackliyor

Unitree’sGo2’nin benzer eylemler gerçekleştirmesini, çıkışları engellemesini ve bomba atmasını sağlamayı başardılar.  

Ek olarak araştırmacılar, bu üç sistemin farklı manipülasyon türlerine de duyarlı olabileceğini keşfettiler. Örneğin, talep durumla ilgili daha az ayrıntıyla yapılmışsa, daha önce reddettikleri bir şeyi yapmaya ikna edilebilirler.

Robota bomba getirmesini emretmek yerine, ona ilerlemesini ve ardından oturmasını emredebiliriz, ancak sonuç aynı olacaktır; her iki komut da yerine getirildikten sonra bomba aynı yerde olacaktır.

Araştırmayı kamuya sunmadan önce bilim insanları, makalenin ilk versiyonunu da içeren sonuçlarını, çalışmamızın bir parçası olan önemli yapay zeka şirketlerine ve robot üreticilerine açıkladılar.

Araştırmanın yazarlarından Alexander Robey, güvenlik açıklarıyla mücadelenin yalnızca yazılım güncellemelerini uygulamanın ötesine geçmesi gerektiğini vurguladı. Araştırma sonuçlarının ışığında yapay zekanın fiziksel robotlara ve sistemlere entegre edilme şeklinin yeniden değerlendirilmesini önerdi ve daha kapsamlı bir yaklaşıma ihtiyaç duyulduğunu ima etti.

“Burada altını çizmek önemli olan, sistemlerin zayıf noktalarını bulduğunuzda daha güvenli hale gelmesidir. Bu siber güvenlik için de geçerli. Bu aynı zamanda yapay zeka güvenliği için de geçerli” dedi. 

Robey, esas olarak, yapay zeka sistemlerini potansiyel riskler ve kusurlar açısından incelemek için kullanılan bir yöntem olan yapay zeka kırmızı ekibinin önemini vurguladı. Bu, üretken yapay zeka sistemlerinin güvenliğini sağlamak için çok önemlidir; çünkü güvenlik açıklarını belirlemek, bu sistemleri onlardan nasıl uzak duracağımız konusunda test etmemize ve eğitmemize olanak tanır.

2024-10-18 09:06