Vortrainierte KI-Modelle lassen sich verwirren und angreifen – (Melanie Staudacher) | Security-Insider | News | RSS-Feed
Eine Untersuchung von Checkmarx zeigt, dass Cyberkriminelle gezielt vortrainierte KI-Modelle angreifen. Bei sogenannten Model-Confusion-Angriffen nutzen sie die Funktion „from_pretrained()“ aus, um schädliche Modelle hochzuladen.
Eine Untersuchung von Checkmarx zeigt, dass Cyberkriminelle gezielt vortrainierte KI-Modelle angreifen. Bei sogenannten Model-Confusion-Angriffen nutzen sie die Funktion „from_pretrained()“ aus, um schädliche Modelle hochzuladen. (Bild: KI-generiert) Weiterlesen