Cisco ostrzega: otwartym modelom AI brakuje cierpliwości. Długie rozmowy łamią ich zabezpieczenia

Najnowsza analiza przeprowadzona przez zespół Cisco AI Defense ujawnia niepokojącą lukę w bezpieczeństwie popularnych, otwartych modeli językowych (LLM). Okazuje się, że aby „złamać” sztuczną inteligencję i zmusić ją do wygenerowania szkodliwych treści, nie są potrzebne zaawansowane umiejętności hakerskie, lecz jedynie cierpliwość. Badanie wykazało, że modele, które skutecznie blokują niebezpieczne zapytania w pojedynczych interakcjach, masowo kapitulują podczas dłuższych, wieloetapowych konwersacji. Popularność modeli typu open-weight, które można pobrać … Czytaj dalej Cisco ostrzega: otwartym modelom AI brakuje cierpliwości. Długie rozmowy łamią ich zabezpieczenia