Vortrainierte KI-Modelle lassen sich verwirren und angreifen – (Melanie Staudacher) | Security-Insider | News | RSS-Feed

Eine Untersuchung von Checkmarx zeigt, dass Cyberkriminelle gezielt vortrainierte KI-Modelle angreifen. Bei sogenannten Model-Confusion-Angriffen nutzen sie die Funktion „from_pretrained()“ aus, um schädliche Modelle hochzuladen.  Eine Untersuchung von Checkmarx zeigt, dass Cyberkriminelle gezielt vortrainierte KI-Modelle angreifen. Bei sogenannten Model-Confusion-Angriffen nutzen sie die Funktion „from_pretrained()“ aus, um schädliche Modelle hochzuladen. (Bild: KI-generiert) Weiterlesen