Was ist eine Halluzination??
Beim maschinellen Lernen ein Fall, in dem ein Modell eine Ausgabe erzeugt, die faktisch falsch oder irreführend ist, obwohl sie plausibel erscheint. Die Abschwächung von Halluzinationen ist ein wichtiger Aspekt einer verantwortungsvollen KI-Entwicklung.