Google lässt seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weiße Nazi-Soldaten und nicht-weiße amerikanische Siedler angezeigt hatte. Der Konzern räumte ein, dass die Darstellung in einigen Fällen nicht dem historischen Kontext entsprach. Man habe es versäumt, Ausnahmen für die Fälle zu programmieren, in denen Diversität definitiv fehl am Platze wäre, hieß es in einem Blogeintrag. Google-Manager Prabhakar Raghavan betonte, dass Software mit KI vorerst auch weiterhin manchmal daneben liegen werde. "Ich kann nicht versprechen, dass Gemini nicht gelegentlich peinliche, falsche oder beleidigende Ergebnisse ausgeben wird", schrieb er.
Grundsätzlich verteidigte das Unternehmen die Diversität bei der Erzeugung von KI-Bildern aber: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. Aber in diesem konkreten Fall sei man übers Ziel hinausgeschossen.
- Gemini: Google präsentiert neues KI-Modell