Eine deutliche Warnung
Karl Olsberg Karl Olsberg
3.53K subscribers
68,207 views
3.1K

 Published On May 19, 2024

In der letzten Woche haben neben Technikchef Ilya Sutskever weitere wichtige Personen OpenAI verlassen. Einer davon war Jan Leike, bisher zuständig für die Sicherheit hochentwickelter KI und Leiter des "Superalignment"-Teams. In einer Serie von Tweets erklärt er sehr offen die Hintergründe seines unerwarteten Abgangs. Sie sind erschreckend.

Jan Leikes Tweet-Serie: https://x.com/janleike/status/1791498...
Meine deutsche Übersetzung: https://www.ki-risiken.de/2024/05/18/...
Ein Bericht über die "Knebelverträge", die OpenAI-Mitarbeiter unterzeichnen müssen: https://www.vox.com/future-perfect/20...
Ein Aufruf führender KI-Wissenschaftler, die existenziellen Risiken der KI ebenso ernst zu nehmen wie die eines Atomkriegs oder einer globalen Pandemie: https://www.safe.ai/work/statement-on...

Ein ergänzender Blogbeitrag von mir zu der Frage, warum KI überhaupt ein existenzielles Risiko ist: https://www.ki-risiken.de/2024/05/21/...
Ein weiterer Blogbeitrag zu der in den Kommentaren gestellten Frage, was wir denn überhaupt tun können: https://www.ki-risiken.de/2024/05/20/...

show more

Share/Embed