Zum Inhalt der Seite gehen


Die Chatkontrolle soll private Kommunikation durchsuchen und mit KI strafbare Kinderpornografie finden. Europol will die von der KI erkannten Daten nutzen, um eine neue KI zu trainieren. KI trainiert KI. netzpolitik.org/2023/interne-d…

teilten dies erneut

Als Antwort auf Andre Meister

Zuvor muss man die Kinder aufklären keine Nacktbilder ins Netz zu stellen, damit nicht Minderjährige für das Einstellen pornog. Inhalte straffällig werden. Dass es dann weniger Fälle gibt, liegt natürlich an der KI und nicht an der Aufklärung (die man auch ohne KI hätte machen können).
@piraten

nrw.social hat dies geteilt.

Als Antwort auf Nachtaktiv :fckafd: :nonazis:

@Nachtaktiv @piraten Einfach Sex nur ab 18. /sarcasm end
Vielleicht sollte man mal realisieren das Leute unter 18 auch Sex haben. Nur weil jemand unter oder über 18 ist
ändert das nichts an deren Verhalten. Menschen um das alter von 18 sind schon lange ein Problem für die Justiz,
sei es "Kinderpornographie" wenn Bilder versendet werden, Sex von zwei Leuten jenseits oder vor 18 mit einander.
Als Antwort auf Andre Meister

@padeluun Schlimmer kann‘s wohl nicht werden…
Hoffen wir auf John Connor, der uns rettet!
Dieser Beitrag wurde bearbeitet. (7 Monate her)

mastodon.social hat dies geteilt.

Unbekannter Ursprungsbeitrag

Sascha
@crazy2bike als IT'ler kriege ich alleine schon durch diesen Gedanken das kotzen. Einfach nein

troet.cafe hat dies geteilt.

Als Antwort auf Andre Meister

KI mit KI-Output trainieren führt zu einer Degeneration des Gelernten, die KI beginnt sich im Kreis zu drehen. Führt zu Datenmüll
Als Antwort auf Andre Meister

Na super! (Achtung Sarkasmus)
Da erinnere ich mich an diese Meldung.
derstandard.de/story/300000017…
So etwas würde ich nicht als AI (KI) bezeichnen sondern als Artificial Stupidity (Künstliche Dummheit).