Videos
Dumm gelaufen

Was Fleischbällchen alles anrichten können: Frau rastet aus

Was Fleischbällchen alles anrichten können: Frau rastet in Subway aus

23.09.2016, 10:3023.09.2016, 10:49

Es ist verständlich, dass man enttäuscht ist, wenn dem Fast-Food-Laden um die Ecke dein Leibgericht ausgegangen ist. Aber man müsste meinen, dass dies noch lange kein Grund ist, die Mitarbeiter anzuschreien und damit alle andern Hungrigen warten zu lassen.

(ange)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
9 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Howard271
23.09.2016 13:53registriert Oktober 2014
Erstaunlich, wie lange der Verkäufer noch mit ihr weiterdiskutiert... mir wäre das längst zu blöd geworden 😂🙊
00
Melden
Zum Kommentar
avatar
DaveKnobs
23.09.2016 12:33registriert Januar 2015
Crystal Meth, one hell of a drug.......
00
Melden
Zum Kommentar
avatar
Füdlifingerfisch
23.09.2016 16:31registriert August 2015
Ist die auf Fleischbällchen- oder Drogenentzug?
00
Melden
Zum Kommentar
9
KI flüstert Mordangst ein – Mann wartet mit Hammer auf Angreifer
Der 50-jährige Adam Hourican liess sich von «Grok», dem KI-Chatbot der Plattform X, davon überzeugen, dass das Unternehmen einen Mordversuch gegen ihn plane. Es endete damit, dass der Nordire mit einem Hammer bewaffnet auf seine Angreifer wartete.
Diese Aussage stammt von Grok, dem von Elon Musks Unternehmen xAI entwickelten Chatbot. Seit Hourican die Anwendung vor zwei Wochen erstmals nutzte, habe sich sein Leben grundlegend verändert. Der frühere Beamte aus Nordirland lud die App zunächst nur aus Interesse herunter. Nach dem Tod seiner Katze Anfang August sei er jedoch regelrecht abhängig geworden. Schon bald verbrachte er täglich vier bis fünf Stunden damit, über die Figur «Ani» mit der KI Grok zu kommunizieren.
Zur Story