Was ist Voreingenommenheit?
Inhärente Vorurteile innerhalb eines KI-Systems, die zu verzerrten Ergebnissen führen können. Voreingenommenheit kann durch die Datenauswahl, das Modelldesign oder die Trainingsdaten entstehen, und es ist von entscheidender Bedeutung, Voreingenommenheit zu erkennen und abzuschwächen, um faire und verantwortungsvolle KI zu gewährleisten.