Haben die User den Microsoft-Chatbot Tay nur testen wollen als sie aus ihm einen rassistischen Sprücheklopfer machten oder war hier ein fehlerhafter Algorithmus am Wert, der eine TÜV-Prüfung nie bestanden hätte? Das Beispiel des Chatbots Tay, der über Twitter kommunizierte, muss derzeit oft herhalten, um die Unzulänglichkeiten von Algorithmen zu illustrieren. Aktuell verwendete Bildersuche-Algorithmen erlernen das Erkennen von Objekten anhand einer Vielzahl von Bildern, die das gesuchte Objekt enthalten und die vorher bereits von Menschen klassifiziert wurden. Der Algorithmus ermittelt… weiter
Related Posts
Goldbachs Himmelsatlas 1799 – neu!!!
/* ein absolutes Highlight und einen wirklich strahlenden Stern am astronomischen Bücherhimmel: Das hat der neu gegründete Kölner Albireo-Verlag geschaffen: eine neue Auflage des historischen Himmelsatlanten, der seinerzeit neue Maßstäbe …
Die gute Fee: Was wünscht Ihr Euch? – Aktion zum Mitmachen
Jeder lange Arbeitstag – auch ein Montag – geht irgendwann einmal zu Ende.
Gestern Abend saß ich dann also wieder einmal auf meinem Balkon und genoss den Feierabend. Es war ein richtig schöner, idyllischer Sommerabend, die Vöglein zwitscherten, die Sonne ging so richtig kitschig blutrot über den Dächern von Bad Dingenskirchen unter und […]
Tagesprotokolltime
Manche Dinge verbreiten sich in der Blogosphäre wie Lauffeuer. Seit gestern sind’s die stichpunktartigen Tagesprotokolle: Die Kranke Schwester hat damit angefangen, dann kam Josephine, die Heldin im Chaos und weiter ging’s mit Sophie Sternenmond. Da läßt sich Mediynicus auch nicht lumpen. Also, wie geht’s in Bad Dingenskirchen zu? Vorhang auf: 05:30 – Wecker düdelüdütet zum […]