Ki-Apokalypse: Nobelpreisträger Geoffrey Hinton warnt vor 20-prozentiger Ausrottungsgefahr

2024-12-30
Ki-Apokalypse: Nobelpreisträger Geoffrey Hinton warnt vor 20-prozentiger Ausrottungsgefahr
derStandard

Der Physiknobelpreisträger Geoffrey Hinton sieht ein hohes Risiko, dass die Künstliche Intelligenz die Menschheit ausrottet. Laut Hinton besteht eine Chance von bis zu 20 Prozent, dass KI zur Apocalypse führt. Die Entwicklung von KI ist ein zweischneidiges Schwert, das sowohl positive als auch negative Auswirkungen haben kann. Während KI viele Bereiche wie Gesundheitswesen und Wirtschaft verbessern kann, birgt sie auch das Risiko einer unkontrollierten Weiterentwicklung. Experten warnen daher vor den potenziellen Gefahren von KI und betonen die Notwendigkeit einer verantwortungsvollen Entwicklung und Kontrolle. Mit dem Schlüsselwort KI-Risiko und Künstliche Intelligenz

Empfehlungen
Empfehlungen