Ein Philosoph, ein Naturwissenschaftler und ein Softwareentwickler haben sich zusammengetan und mit dem Centre for the Study of Existential Risk (CSER) ein eigenes Forschungszentrum gegründet. Ziel ist es, sich mit potenziell existenziellen Bedrohungen in Bereichen wie Bio- oder Nanotechnologie sowie insbesondere auch Künstlicher Intelligenz (KI) zu befassen.
Fluch oder Segen
Schon 1965 hatte der britische Mathematiker Irving John Good in einer Arbeit vorgesagt, dass eine ultra-intelligente Maschine gebaut werden würde, die in einer “Intelligenzexplosion” resultiert. Das werde die letzte Erfindung sein, die der Mensch machen müsse und das Überleben der Menschheit hänge davon ab. Nur wenige Jahre später war Good aber als wissenschaftlicher Berater für ein Filmprojekt tätig, das lang vor “Terminator” die Angst vor wildgewordenen KIs schürte: Stanley Kubricks “2001: Odyssee im Weltraum” mit dem Bordcomputer HAL.
“Irgendwann in diesem oder dem nächsten Jahrhundert könnten wir einen großen Umbruch in der Menschheitsgeschichte erleben, wenn Intelligenz biologischen Beschränkungen entweicht”, meint nun Cambridge-Philosophieprofessor Huw Price, einer der CSER-Mitgründer. Gemeint ist die Umsetzung einer Goodschen ultra-intelligenten Maschine in Form einer Artificial General Intelligence (AGI). Price zufolge ist es wichtig, potenzielle Risiken solch einer technologischen Entwicklung zu erforschen. Er beschwört das Bild einer etwaigen Büchse der Pandora.
Gefahr ohne Feindseligkeit
Der ehemalige Softwareentwickler und Skype-Mitgründer Jaan Tallinn ist ebenfalls einer der Köpfe hinter CSER und spricht gemeinsam mit Price an, dass AGIs, welche die Menschheit in Sachen Intelligenz ausstecken, auch ohne “Terminator”-artige Feinseligkeit zur Gefahr werden könnten. Denn Menschen müssten dann quasi mit einer dominanten Spezies konkurrieren, so der Philosoph unter Verweis auf Gorillas. “Der Grund, dass sie Aussterben, ist nicht aktive Feindseligkeit der Menschen, sondern dass wir die Umwelt auf eine Weise gestalten, die uns zusagt, aber nachteilig für ihr Überleben ist.”
Dritter CSER-Mitgründer ist der Kosmologe und Astrophysiker Martin Rees, der schon 2003 prognostiziert hat, dass sich die Menschheit mit 50-prozentigfer Wahrscheinlichkeit bis Ende des Jahrhunderts selbst vernichtet. Die Arbeit am interdisziplinären CSER soll helfen, genau das zu verhindern. Dazu will man als potenzielle Bedrohungen neben hochentwickelten KIs auch Themen wie Risiken der Biotechnologie, die Gefahr eines Atomkriegs oder die Auswirkungen des vom Menschen verursachten Klimawandels studieren.
(pte)
Du hast einen Hinweis für uns? Oder einen Insider-Tipp, was bei dir in der Gegend gerade passiert? Dann melde dich bei uns, damit wir darüber berichten können.
Wir gehen allen Hinweisen nach, die wir erhalten. Und damit wir schon einen Vorgeschmack und einen guten Überblick bekommen, freuen wir uns über Fotos, Videos oder Texte. Einfach das Formular unten ausfüllen und schon landet dein Tipp bei uns in der Redaktion.
Alternativ kannst du uns direkt über WhatsApp kontaktieren: Zum WhatsApp Chat
Es hat einen Fehler gegeben! Bitte versuche es noch einmal.Herzlichen Dank für deine Zusendung.