Wenn KI sich täuscht: Halluzinationen bei generativen Sprachmodellen
Stellen Sie sich vor, Sie führen eine scheinbar harmlose Unterhaltung mit einer KI, die Antworten gibt, die so präzise und eloquent sind, dass Sie für einen Moment vergessen, dass es sich um eine Maschine handelt. Plötzlich erzählt Ihnen die KI eine Geschichte über ein bahnbrechendes wissenschaftliches Experiment, das nie stattgefunden hat, oder sie zitiert eine Quelle, die nicht existiert – Die KI hat “halluziniert”.