Existentielles Risiko (durch KI / x-risk)
Das hypothetische Risiko, dass eine zukünftige, hochentwickelte künstliche Intelligenz (Superintelligenz) außer Kontrolle gerät und Ereignisse verursacht, die zum Aussterben der Menschheit oder zu einer drastischen und dauerhaften Verschlechterung ihres Potenzials führen könnten. Ein zentrales Thema der langfristigen KI-Sicherheitsforschung.