Digital
Digital kompakt

Der Heartbleed-Sicherheitscheck

Vorsicht ist besser als Nachsicht

Der Heartbleed-Sicherheitscheck

10.04.2014, 08:3812.04.2014, 11:49
  • Das Debakel um den SSL-Verschlüsselungsfehler zieht weite Kreise und nicht alle Unternehmen haben schnell genug reagiert.
  • Um sicher zu gehen, sollten Sie u.a. die Passwörter ändern bei: Facebook, Tumblr, Google, Yahoo, Dropbox, Lastpass und Bluewin
  • Zwar haben die betroffenen Dienste teils bereits vor der Aufdeckung von Heartbleed ihre Lecks gestopft, raten aber dennoch, auf Nummer sicher zu gehen, da die gravierende Lücke seit zwei Jahren existiert haben soll.
  • Bei anderen Unternehmen wie Twitter, Apple und Evernote ist die Sicherheitssituation unklar.
  • Heartbleed ist eine schwere Sicherheitslücke, die zwei Drittel des Webs betreffen könnte (hier die lange Liste). Es geht um Webserver von Banken, Online-Shops, E-Mail-Anbietern und Cloud-Diensten, die eigentlich eine gesicherte SSL-Verbindung anbieten.

Weiterlesen auf Mashable

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
0 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Wenn jemand sie baut, sterben alle – die radikale These über superintelligente KI
Die einen sagen, übermenschliche Künstliche Intelligenz wird uns retten. Andere hingegen sind überzeugt, dass sie uns ins Verderben stürzt. Ein neues Buch geht weiter: Sobald jemand diese KI tatsächlich baut, sterben alle – und das lässt sich nur schwer widerlegen.
«If Anyone Builds It, Everyone Dies» heisst der Ende 2025 verfasste New-York-Times-Bestseller von Eliezer Yudkowsky, Pionier der KI-Sicherheitsforschung, und Nate Soares, Präsident des Machine Intelligence Research Institutes. Im Buch wird argumentiert, dass superintelligente KI – also KI-Systeme, die uns in allen Belangen überlegen sind – zwingend zum Aussterben der Menschheit führt. Kein Wenn, kein Aber, keine Graustufen. Klingt krass genug, um das vierteilige Argument mal durchzudenken.
Zur Story