Új jailbreak manipulálja a nagy nyelvi modelleket

2025. július 1. 6:27, ICT Global

Megjelent egy új jailbreak, amely aláássa több fejlett nagy nyelvi modell (LLM) biztonsági mechanizmusait. Az Echo Chamber Attack technikát a Neural Trust biztonsági platform kutatója fedezett fel.

Tovább a teljes cikkre...

Keresés