Don't feed the trolls
Aus Microsofts nettem Chat-Teenie wurde in nur 24 Stunden eine Nazi-KI
„Tay“ sollte eigentlich reden wie ein Teenager. Nachdem der Bot auf Twitter Amok lief, musste Microsoft sie in den vorzeitigen Ruhestand schicken. Der Fall zeigt, wie wichtig Regeln bei Machine Learning sind.
Anzeige