Ki-Apokalypse: Nobelpreisträger Geoffrey Hinton warnt vor 20-prozentiger Ausrottungsgefahr
2024-12-30

derStandard
Der Physiknobelpreisträger Geoffrey Hinton sieht ein hohes Risiko, dass die Künstliche Intelligenz die Menschheit ausrottet. Laut Hinton besteht eine Chance von bis zu 20 Prozent, dass KI zur Apocalypse führt. Die Entwicklung von KI ist ein zweischneidiges Schwert, das sowohl positive als auch negative Auswirkungen haben kann. Während KI viele Bereiche wie Gesundheitswesen und Wirtschaft verbessern kann, birgt sie auch das Risiko einer unkontrollierten Weiterentwicklung. Experten warnen daher vor den potenziellen Gefahren von KI und betonen die Notwendigkeit einer verantwortungsvollen Entwicklung und Kontrolle. Mit dem Schlüsselwort KI-Risiko und Künstliche Intelligenz