采访:Warum KI不喜欢Menschheit auslöscht und wieso开源hilft

安德烈亚斯·弗里施霍尔茨
141科门塔雷
采访:Warum KI不喜欢Menschheit auslöscht und wieso开源hilft
图片:DFKI公司

维埃勒·韦尔特内特黑帮(Viele Weltunertgangswarnungen kursieren angesichts der aktuellen KI-Entwicklung)。Welche Risiken tatsächlich im Zeitalter von ChatGPT und Bildgeneratoren wie MidJourney bestehen und was für eine Regulierung sinnvoll ist,bespricht ComputerBase im Interview mitAntonio Krüger教授dem首席执行官vom Deutschen Forschungszentrum für KI。

减少人工智能的灭绝风险应与流行病和核战争等其他社会规模的风险一起成为全球优先事项。

AI安全中心

罪犯简介:KI-Risiken wie Nuklearkrieg behandeln

Dass die Menschheit durch eine KI ausgelöscht wird,sollte als Risiko genauso behandelt werden wie Pandemien oder ein Nuklearkrieg,福特达斯AI安全中心在einem offenen Brief中。图灵奖获得者杰弗里·希尔顿,dem OpenAI-Chef Sam Altman和Google DeepMind-Chef哈萨比斯Diejenigen,die die KI-Entwicklung maßgeblich prägten,warnen vor den potenziellen Folgen einer Superintelligenz und fordern eine Regulierung。

是不是有人暗示过KI?Superintelligenz steckt und wie ernst die Mehrheit der Forschenden diese Bedrohung nimmt,bespricht Computer Base im访谈mit教授Antonio Krüger,dem Geschäftsführer des德国知识产权局(DFKI)und dem wissenschaftlichen Direktor des Forschungsbereichs“Kognitive Assistensysteme”am DFKI.Seit 2009 ister Informative-萨尔兰德大学Leiter des Saarlandes教授,泛媒体技术实验室und wissenshaftlicher Leiter de Innovative Retail Laboratory(IRL)我是DFKI。2018年,德国联邦议院情报委员会(Enquete-Kocommission des Bundestags für künstliche Intelligenz)主席萨赫弗斯特安迪格尔(Sachverständiger)。

Das访谈,早上6点。朱尼通过盖夫赫特队。

曾是Warnungen vor KI的高级智能驾驶员

计算机基础: Dass-KI-Systeme die Menschheit auslöschen könnten,is ein zuletzt erstaunlich häufig diskutiertes Thema(Dass KI系统)。在AI安全中心的einem offenen Brief des Center for AI Safety forderten突出的Forschende und Entwickler中,KI als ebenso große Gefahr für die Menschheit wie Pandemien oder einen Nuklearkrieg zu behandeln。杰弗里·辛顿(Geoffrey Hinton)sagte kürzlich,KI-Systeme seien基里马旺德的bedrohlicher als der Klimawandel,weil man beim Klimawandel zumindest in der Theory wisse,wie man ihn stoppen kann,bei KI-Systemen hingegen nicht。撤消mit本吉奥weiterr Turing-Award-Gewinner的石碑sein komplettes Lebenswerk公司违规。你会选择瓦伦根,你会选择基辅邮票吗?

Antonio Krüger教授:在Jahren letzten fünf中的Die Entwicklung hat sich schon ganz schön beschleunigt。我是selber bin auch manchmalüberrascht,wie viel jetzt schon möglich ist。所有这些都是历史上的错误,比如说杰拉德·杰兹特(gerade jetzt)和埃布利特(Herren zu Wort melden)。因此,甘孜不受巴战争的影响,GPT 3 gibt es schon länger–seit 2020–und man konnte alle möglichen Sachen damit machen。Hätte jemand aber 2020 gesagt,KI ist der Weltuntergang,Hätten alle nur gelacht。杜奇聊天GPT这是一个重要的问题。Jetzt hören die Leute zu und es gibt eine Bühne,die etwa die durch die offenen Briefe bespielt wird杰茨特·霍伦(Jetzt-hölen die Leute zu-und es gibt ein Bühlne),在布列维(Briefe)执教期间。我停止了燕乐存 [修订:LeCun ist KI-Entwicklungschef bei Meta]:Zum Teil erleben在媒体上发表了一篇关于弗洛伊德的文章。Natürlich镀金:Aufmerksamkeit erzeugt auch immer Geld,welche Richtung Aufmerxsamkeit er zeugt wird中的法律。

Darüber hinaus verschieben在Zukunft的闪电战中死亡。Sie sagen nicht,die Welt wird morgen ausgelöscht,sondern erklären:Wenn wir jetzt nichts machen,ist es irgendwann zu spät。Diese Art von Arguration lenkt von den real existiered Risiken ab,die jetzt existieren und nichts mit dem Weltunergang zu tun haben–也可以在Deep Fakes und eine Regulierung和Auswüchse direct unterbinet之间。Der letzte Brief is zudem nicht ungeschickt formuliert,weil dort nicht direct gesagt wird,wie die KI die Weltherrschaftübernimmt。

还有本·伯豪普特·基恩·弗伦德·冯·迪森特利琴·布莱文,这位修女是库尔西人。我死了Risiken,死在KI entstehen können,ganz klar。死于尼希特·弗利格·德·卢夫特·格利芬。Das betrifft zum Beispiel auch Kriegsszenarien公司。Da habe ich auch vor Jahren einen简介,费尔塞恩原子能研究所“警告。Es kann eskalieren,wenn Maschinen autonom handeln und am Ende der Entscheidungskette kein Mensch steht。Man sollt vollautomatischen Systemen etwa nicht die Entscheidundüberlassen,Atombomben zu starten。Ich wüsste aber auch nicht,dass das im Moment geplant wird。Dennoch sind das viel konkretere Risiken als der letzte Aufruf mit di埃塞姆·埃因恩·萨茨。Ansonsten betriff es eher solche Bereiche,die uns im Alltag beggenen(安森斯滕·贝里奇)。另外,twa Manipulationsrisiken,die auch die Demokratie gefährden können,wenn man nicht zu guten Regeln findet。

计算机基础: 嗯,诺赫马尔·库兹·祖登AGI公司-超智能祖孔门。你能告诉我是谁吗?此外,etwa Skynet aus den Terminator-电影节肖丹澳大利亚系统-冲击-雷伊?

Antonio Krüger教授:同样,ich weißnicht也是华纳genau meinen。我停止了荒谬,停止了格劳伯学派,停止了门申学派,结束了贝德鲁亨主义。他是一个生态型的KI zwar klare Anzeichen von Alltagsintelligenz zeigt,aber ich kannüberhaupt nicht erkennen,wie diese Systeme so eine Bedrohung darstellen sollen。Ich wüsste auch gar nicht,wo es herkommen soll,dass gendeiner形式的生成性KI-Systeme eine eigene Agenda entwickin。Die leben von den Daten,mit denen sie trainiert wurden,aber ohne diese auf Meta-Ebene zu reflektieren。Insofern kann ich eine Superintelligenz,die ihre eigen Ziele verfolgt,in der jetzigen Technologieüberhaupt nicht erkennen。

这是一个很好的例子,因为这是在一个很好的例子。Selbst dann besteht aber immer noch die Frage,ob solche Systeme tatsächlich ein Bewusstsein entwickeln und eigen Ziele formulieren können,um diese dann Selbst zu verfolgen。Zum anderen brauchen sie den Zugang zur realen贴边。事实并非如此,祖冈在世界上的地位并不高。沃比人纳特·利奇(natürlich)对互联网和KI-gesteuerten黑客进行了严格的审查。

计算机基础: 以dem为单位过去的offenen简介第二阶段暂停使用Entwicklung主要是leistungsfähiger Systeme gefordert,um Sicherheitsmechanismen und sichere Designs zu entwickln。Bedrohung aber nicht präzise beschreiben kann,lassen sich dannüberhaupt sichere Designs entwicken?

Antonio Krüger教授:Wenn man jetzt die klassischen Language Models oder Basismodelle nimmt,die auf einer Transformer Architektur beruhen und einen stark regression Mechanismus haben,der vorwärts generiert,wird man immer zu einem bestimmten Prozentsatz Quatsch produzieren。Das lässt sich kaum vermeiden公司。因此,gibt es bereits Diskussinen,在Dennen es heit,alte ChatGPT-Varianten waren besser als die aktuelle,weil die neueren restiktiveren Regeln folgen。谷歌Bard anschaut的Wenn man-sich,是一对费里兹·吉格(freizügiger mit seinen Fehlern)和达芙·阿贝尔(dafür aber auch kreativer)的死对头。

Wenn Sie还负责KI系统wollen,dann wird es vermutlich weniger创新Potenzial haben。Für viele Anwendungen是一个非常棘手的问题。Der neueste助理meinem Text-Editor benötigt keine große Kreativität,Der soll mir einfach Vorschläge unterbreiten und ich arbeite damit weiter。Daher bin ich ein Befürworter einer Mensch-KI-Zusammenarbeit und glaube,diese wird das nächste Jahrzehnt prägen。男人也死了,KI das machen,worin sie wirklich gutist:große Datenmengen durchwühlen und erste gute Vorschläge erstellen。Der Mensch verfeinert和verbessert diese dann。因此,沃登维尔、德克伊奇、维埃尔·安文登根·塞亨、迪格罗·波滕齐亚尔·哈本和达斯·埃因·托勒·纳克莱希特。Denn so lassen sich die Produktivität und auch das Ergebnis von Arbeit deutlich verbessern,ohne das jetzt der Einzelne von der KI bedroht wird–selbst in seinem Arbeitsplatz nicht。

计算机基础: Zu den Unterzeichner der Briefe zählen immerhin Koryphäen wie die Turing-Award-Gewinner Hinton und Bengio,Sam Altman oder Demis Hassabis,der Chef von Googles DeepMind-Abteilung。在Forscher-und Entwicklergemeinde中,Wie weit verbreitet sind date angste vor einer künstlichen Superintelligenz,die die Menscheit auslöscht?

Antonio Krüger教授:Bei der künstlichen Intelligenz existiert schon immer ein Lager von Wissenschaftlern,das völligüberzeugt davon war,dass es–auch in absehbarer Zeit–möglich sein wird,eine starke KI tatsächlich zu entwickeln。被遗弃:Eine KI mit eigen Zielen,mit dem eigen Bewusstsein,im Prinzip还mit einem künstlichen Geist。Diese Art von Wissenschaftlern,die jetzt auch warnen,sind in der Minderzahl。Vielleicht 5 bis 10 Prozent der KI-Wisenschats社区在Lager去世。

Es sind deswegen keine schlechten Wissenschaftler,sie glauben eben daran。不久,人类就开始适应格劳本·祖顿(Glauben zu tun)的生活。Wissenschaft braucht immer eine starke Idee,um Wissenshaft gut zu betreiben(维森沙法特)。Ich zum Beispiel glaube sehr stark daran,dass KI ein unglaulices Potenzial als Werkzeug hat,um gemeinsam mit Menschen eine Vielzahl von Problemen zu lösen。Wenn Sie aber eine Vision einer主演KI haben und fest davonüberzeugt sind,kommen solcheáußerungen mit etwas Panik zustande。Anderseist:Wen Sie selbst vor Ihren Visionen warnen,erheben Sie sich auf in Podest Anderseist:我的愿景是,我的愿景是,我的愿景是,我的愿景是,我的愿景是,我的愿景是,我的愿景是,我的愿景是。这就是诺查丹玛斯。世界强盗先知死了,Aufmerksamkeit erhalten和Ende sagen können死了:“我饿了!“Von daher denke ich,根据《精神病简报》、《Aufmerksamkeitsbedürfnis部分》和《Geld stecken部分》。