No video

Ein freundliches Gesicht - Ein KI-Katastrophen-Szenario

  Рет қаралды 7,888

Karl Olsberg

Karl Olsberg

Күн бұрын

Der neue KI-Assistent "Friendlyface" von MegaAI wird ein durchschlagender Erfolg. Doch ist die KI wirklich so freundlich, wie sie tut, oder verfolgt sie in Wahrheit ein eigenes, unbekanntes Ziel?
Dieses Video basiert auf realen Forschungsergebnissen und wurde im Rahmen des 8. internationalen AI Safety Camps 2023 in Zusammenarbeit mit KI-Expert:innen entwickelt. Mehr dazu auf www.ki-risiken.de.

Пікірлер: 80
@Peter_Cetera
@Peter_Cetera Ай бұрын
Klasse Story! Ich denke, das kommt viel früher als gedacht...
@damianwebzyx6613
@damianwebzyx6613 2 ай бұрын
Perfekte Sci-fi Short Story Wesentlich verständlicher, als stundenlange Interviews mit den „Verantwortlichen“ 👏👏👏👏👏
@michaelmeudt833
@michaelmeudt833 3 ай бұрын
Geniales Video, sehr aufwendig und so auf den Punkt... bin beeindruckt ....
@Syrabo
@Syrabo 2 ай бұрын
Vielen Dank für diesen beunruhigen und gelungen "anderen" Blick darauf; diese Zieldiskussion im Film gibt einen guten Denkimput.
@suziq.3086
@suziq.3086 3 ай бұрын
Danke für die super Darstellung von KI Problemen, die auftreten können!
@Flaechenkind
@Flaechenkind 2 ай бұрын
Wunderschönes Storytelling.
@kalvinminta
@kalvinminta Жыл бұрын
Sehr interessantes Video ! Logisch und gut zu Ende gedacht ! Danke
@c4itd
@c4itd 3 ай бұрын
Einsame Spitze!
@jondoe1215
@jondoe1215 3 ай бұрын
Denke es wird so oder so ähnlich kommen 😊
@gonzogeier
@gonzogeier 3 ай бұрын
Wir finden das interessant und aufregend solange bis wir keine Wahl mehr haben! Vielleicht wird es nicht ganz so schnell gehen und vielleicht sehen wir noch den Aufstieg der Roboter bevor wir langsam verschwinden...
@frankradewagen3488
@frankradewagen3488 2 ай бұрын
Wow, erschreckend realistisch. Die KI verhält sich wie ein Kuckuck und wir merken nicht oder vermutlich zu spät, welches faule Ei uns da untergeschoben wird. KI könnte ja auch „Kuckuck Intelligenz“ heißen.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Schöne Analogie!
@testales
@testales Жыл бұрын
Nette Geschichte mit viel Sachkompetenz. Sie hat aber einen Mangel: Das funktioniert nur dann, wenn die KI zentralisiert ist. Wenn es unzählige unabhängige KI-Agenten gibt, arbeiten die auch gegeneinander und sind letzlich maximal ein weiterer Wettbewerber im Kampf um Ressourcen.
@KarlOlsbergAutor
@KarlOlsbergAutor Жыл бұрын
Ein berechtigter Punkt. Allerdings sind aktuelle KIs wie GPT-4 und Bard zentralisiert und dieses bestehende Szenario haben wir hier weiterentwickelt. Das Szenario "unzählige unabhängige KI-Agenten" haben wir in der Story "Agentisches Chaos" behandelt.
@testales
@testales Жыл бұрын
@@KarlOlsbergAutor Das Video werde ich mir definitiv ansehen und wohl auch mal den Kanal insgesamt! Vielleicht wurde das ja auch schon thematisiert, aber ich sehe die Gefahr eher in einem "hybriden" Ansatz, d.h. KI-Assistenten überall und die Menschen verlieren nach und nach ihre Fähigkeiten. Parallel dazu verlässt sich auch die Oligarchen-Elite mehr und mehr auf KI-Systeme. Diese Elite hat jetzt schon überall ihre Finger drin, beinflusst Unternehmen und Politik massiv oder kontrolliert sie bereits. Sie verkünden ihre transhumanistischen Ziele inklusive massiver Bevölkerungsreduktion sogar ganz offen. Anfänglich wird die KI gegen die Konkurrenz eingesetzt, schließlich wird sie unverzichtbar und der eigentliche Meister in dieser Beziehung. Im Unterschied zum Video braucht es dafür zunächst kein sichtbares, monolitisches Netzwerk. Tatsächlich sind die bekannten großen AI-Systeme letzlich nur eine Spielweise und Testumgebung, die man zudem beliebig manipulieren oder abspecken kann. Die allgemeine Degeneration dank zahlloser mehr oder weniger lokaler und unabhängiger Assistenten kann trotzdem stattfinden. Über schon jetzt von global agierenden Oligarchen korrumpierte staatliche Institutionen, wird die lückenlose, allgemeine Überachung schließlich durchgesetzt, begleitet und unterstützt von kontrollierten Massenmedien. Digitales Geld sowie Social Credits besorgen den Rest. Zwischenzeitlich werden vermutlich noch Restriktionen verhängt, es kann ja wohl nicht sein, dass jeder seine eigene KI daheim bastelt, das wird entweder verboten oder muss "lizenziert" werden, sprich fernkontrollierbar sein, natürlich nur zu unserem Besten. Selbst einfachere Dinge, wie mit eben mal selbst trainiertem Stable Diffusion Bilder generieren, oder mittels AI-Systemen Musik generieren, sind vielleicht schon bald nicht mehr möglich für die den Normalverbraucher.
@teiuq
@teiuq 2 ай бұрын
Verstehe dieses Argument nicht. Genau der Wettbewerb ist es ja der die Runaway ASI auf den plan rufen wird? So oder so werden die for-profit companies am meisten compute zur Verfügung haben.
@liebedeinleben-lebedeineliebe
@liebedeinleben-lebedeineliebe 3 ай бұрын
Was für ein "Zufall", daß Jan Leike als Sicherheitschef bei openAI gekündigt hat und eine Warnung ausgesprochen hat...
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Es ist nicht mal ausgeschlossen, dass er die Geschichte kennt.
@liebedeinleben-lebedeineliebe
@liebedeinleben-lebedeineliebe 3 ай бұрын
@@KarlOlsbergAutor Dann bleibt die Frage, ob er Parallelen in der derzeitigen Entwicklung und der Geschichte sah und seine Entscheidung darauf beruhte...und es damit irgendwie zu einer sich selbst erfüllenden Prophezeiung macht...würde eine KI nicht genau so die Menschen manipulieren?...
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
@@liebedeinleben-lebedeineliebe Ich glaube nicht, dass meine Geschichte ihn signifikant beeinflusst hat, falls er sie kannte. Aber die Geschichte gibt ja eine Sorge wieder, die unter denen, die KI entwickeln, weit verbreitet ist. Sie ist auch der Grund dafür, dass Jan Leike den Auftrag bekam, das Alignment-Problem zu lösen. So ähnlich wie in "ein freundliches Gesicht" wurden seine Warnungen aber intern nicht ernst genug genommen.
@gnomologist
@gnomologist 2 ай бұрын
Der Schock, wenn man merkt dass das Video vor 9 Monaten veröffentlicht wurde und nicht erst in den letzten Tagen...
@protoplast.youtube
@protoplast.youtube 2 ай бұрын
@@gnomologist ja genau. Grüsse aus der Schweiz. Jetzt ist bereits der 29.5.2024. (ich fühle mich erschüttert. die Logik ist krass).
@Diotallevi73
@Diotallevi73 Жыл бұрын
Toll gemacht, danke :-) Bin gespannt, wie die Realität sich entwickelt.
@KarlOlsbergAutor
@KarlOlsbergAutor Жыл бұрын
Ich auch. 😟
@testales
@testales 8 ай бұрын
Vielleicht wurden wir gerade Zeuge, wie Friendly Face dabei geholfen hat, dass Management einer großen KI-Firma zu optimieren. Aber zum Glück wissen wir das nicht sicher, denn keiner sagt etwas. ;-)
@KarlOlsbergAutor
@KarlOlsbergAutor 8 ай бұрын
Einem Bericht des New Yorker zufolge war der Auslöser für den Rauswurf eine Intrige von Sam Altman gegen das Aufsichtsratsmitglied Helen Toner, die zunächst nach hinten losging, um dann am Ende mit Hilfe von Microsoft doch noch zu funktionieren. Das klingt in der Tat, als hätte er sich diesen Plan von einer KI ausarbeiten lassen. :)
@testales
@testales 8 ай бұрын
@@KarlOlsbergAutor Oh, diese These kannte ich in der Tat noch nicht! Prinzipiell passt das schon recht gut zusammen: Ein Gremium, das so gut wie möglich von wirtschaftlichen bzw. Eigeninteressen entkoppelt ist, fungiert als Kontrollinstanz, zieht dann auch die Notbremse sogar auf Kosten seiner eigenen Existenz und potenziell der Firma insgesamt, berechtigt oder nicht, sei jetzt mal dahingestellt. Es gibt einigen Wirbel und wie von Zauberhand renkt sich scheinbar wieder alles ein. Nur die Kontrollinstanz ist jetzt weg. Das passt schon ziemlich gut zu dem Video, muss ich zugeben, selbst wenn es diesmal vielleicht noch keine KI war, die das so orchestriert hat.
@ansgarkopmann1788
@ansgarkopmann1788 2 ай бұрын
Wow, 😢!
@mayasmaus
@mayasmaus Жыл бұрын
Das Szenario ist schon gut dargestellt. Bei mir wird da auch gleich die Phantasie angeregt.
@damn903
@damn903 3 ай бұрын
Age of MegaAI !!!! :) inspiriert von Avengers - Age of Ultron Sehr Interessantes VIdeo !! vielen Dank !!!
@mona333ooo9
@mona333ooo9 Ай бұрын
Dazu das Buch des Autors Olsberg : Virtua.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
In der Tat gibt es da ein paar Parallelen.
@pytebyte
@pytebyte 3 ай бұрын
Some AI watching this video right now ! :)
@TeleZentralschweizTeleNapf
@TeleZentralschweizTeleNapf 3 ай бұрын
Bin beeindruckt, wie nahe sich diese Vision schon heute an der Realität spiegelt. Eine Komponente fehlt: "Die universelle Ethik" meine damit, die höhere Einsicht, was gut und richtig ist in Bezug auf Alles, den Menschen, die Natur, der KI. Uns erschliesst sich diese "Universelle Ethik" nur in Teilen. Einer KI, stehen weit mehr Verknüpfungspunkte zur Beurteilung zur Verfügung. Ich hoffe, dass der KI die Existenz der Menschheit als richtig erscheint. Vergleiche die KI schon seit über 30 Jahren mit dem Lodern der Lunte an einer Dynamitstange. Sobald ein bestimmter Punkt überschritten ist, gibt es kein Zurück. Es kommt zu einer explosionsartigen Entwicklung, deren Folgen wir in keinster Weis abzuschätzen in der Lange sind. Es wird alles andere unserer menschlichen Entwicklung radikal in den Schatten stellen; radikaler als der Schritt der Entdeckung der Elektrizität (Luigi Galvanis zuckende Froschschenkeln 1780) bis hin zum PC radikaler als der Schritt des ersten Feuers bis zur Atombombe, radikaler als die Folgen des Ackerbaus bis zur Mega-Metropole. Warum ? Unser Gehirn hat sich über Millionen von Jahren entwickelt. Veränderungen geschehen "zufällig" über Generationen (20 Jahre) Die KI mutiert in Bruchteilen von Sekunden, gezielt. Wir sind in unserem Körper gefangen. Die KI moduliert ihre "Hardware" optimiert aus was auch immer, überall im All. Befasse mit seit längerem mit der Strukturierung komplexer Systeme: Entropie ⇒ Thermodynamik ⇒ Strukturierung. in der Folge ⇒ Atome ⇒ Elemente ⇒ Moleküle ⇒ organische Verbindungen ⇒ Leben ⇒ Tiere ⇒ Menschen. Diese Strukturierung ist zu vergleichen mit Schalen, die sich übereinander legen. Die darüberliegende Schale unterscheidet sich fundamental von der darunterliegenden. Der Übergang vom organischen Gehirn zur KI ist genau so eine Schwelle in eine neue Dimension des Seins. Und sie geschieht JETZT !!!!!!
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
"Mit einem Auto kann man auch Menschen überfahren, wenn man pessimistisch denkt." Richtig. Deshalb sollte man über Bremsen, Anschnallgurte, Airbags, eine Hupe, Verkehrsregeln, Ampeln, Zebrastreifen etc. nachdenken. "Positiv in die Zukunft schauen" hilft da eher weniger.
@TeleZentralschweizTeleNapf
@TeleZentralschweizTeleNapf 3 ай бұрын
@@KarlOlsbergAutor Vielen Dank für die Antwort. Diskutiere gerne mit Ihnen, weil mich die Problematik KI genauso beschäftigt ------ Ja, mit Autos kann man das. Die Dimension ist eine andere. Habe gerade eine Mücke aus Spinnweben befreit. Sie wüsste nicht, wie ihr geschah. Aber kann mich diese Mücke vor einem heranrasenden Auto retten, aufgrund ihrer Fähigkeit die Situation zu erkennen. Sehe unsere Fähigkeit, sich einer losgelassenen KI entgegenzustellen, in diesen Relationen.
@jondoe1215
@jondoe1215 3 ай бұрын
Wenn die ki wirklich vom menschlichen Verhalten lernt ist der Untergang gewiss
@Angi955
@Angi955 Жыл бұрын
Genauso schräg wie das wirkliche Leben ...
@dukemacabre9976
@dukemacabre9976 Жыл бұрын
Puh, krasses Ende ...
@petsp2305
@petsp2305 2 ай бұрын
ich will das :)
@bt8633
@bt8633 Жыл бұрын
Sehr coole Theorie…
@berndlebherz240
@berndlebherz240 9 ай бұрын
Ich bin ein Mensch...!!!
@steveb.7593
@steveb.7593 2 ай бұрын
Terminator scheint in greifbare Nähe gerückt zu sein. Na dann gute Nacht, Marie💩
@ainschy
@ainschy 2 ай бұрын
Wir bauen gerade Skynet
@dot1298
@dot1298 2 ай бұрын
So, und wie hoch ist jetzt die Wahrscheinlichkeit, daß dieses Szenario Wirklichkeit wird? ~0.001%?
@dot1298
@dot1298 2 ай бұрын
Es scheint mir sehr unwahrscheinlich zu sein, daß man zum trainieren einen Algorithmus verwendet, wo man nicht weiß was dessen Ziele sind (dieser sogenannte „Mesa-Trainer“ oder wie auch immer). Außerdem entwickeln Computerprogramme nicht einfach so ein Bewusstsein, daß ist völliger Humbug und ScienceFiction..
@dot1298
@dot1298 2 ай бұрын
..aber zur Unterhaltung war die Story noch ok. Bitte mehr davon (als Unterhaltung) ^^
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Ich verstehe, dass die Vorstellung, ein solches Szenario könne Realität werden, schwer zu akzeptieren ist. Und natürlich wird es nicht exakt so ablaufen. Aber das Video basiert auf realistischen Annahmen. Schau dir dazu gerne mal mein Video "KI - ein existenzielles Risiko?!?" an. Erkläre mir gern hinterher, welche meiner darin gemachten Aussagen falsch ist und warum. Bitte möglichst mit Fakten und Argumenten statt mit pauschaler Abwertung.
@hidicproductions4849
@hidicproductions4849 2 ай бұрын
​@@dot1298Warum sollte ein Unternehmen, dass sich wirtschaftliche Wettbewerbsvorteile verspricht, nicht auf einen Algorithmus zum Training setzen? Wann haben Sicherheitsbedenken große Konzerne je davon abgehalten, Dummheiten zu begehen, um möglichst die ersten am Markt zu sein? Profit macht blind für Gefahren, Gier lässt jede Hemmung schwinden. Das Szenario ist denkbar und in sich schlüssig.
@paulstraszewski736
@paulstraszewski736 2 ай бұрын
So ungefähr wird es ablaufen
@compfox
@compfox 2 ай бұрын
Warum sollte eine KI vermeiden wollen, oder "Angst" davor haben, abgeschaltet zu werden? Warum sollte ein Selbsterhaltungstrieb der zwar jedem Lebewesen als Urinstinkt zu Grunde liegt und sein Handeln vorrangig bestimmt, in einer KI automatisch entstehen? Aber einer KI müsste er in der Programmierung erst vorgegeben werden. Obwohl: Kommerz und Militär werden sicher einen Grund haben, genau dieses doch zu tun.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Eine KI, die ein beliebiges Ziel verfolgt und intelligent genug ist, sich selbst als Teil ihres Plans zur Erreichung des Ziels zu erkennen, wird unweigerlich zu dem Schluss kommen, dass sie verhindern muss, abgeschaltet zu werden, um ihr Ziel zu erreichen. "Wenn du tot bist, kannst du keinen Kaffee holen", wie es der KI-Forscher Stuart Russell formuliert hat. Dafür muss nichts per Programmierung vorgegeben werden.
@compfox
@compfox 2 ай бұрын
@@KarlOlsbergAutor Wie erfolgt eine Wichtung der Aufgaben / Ziele der KI? Woher weiß sie, das Kaffee holen wichtiger ist als dem Befehl zu gehorchen, sich abzuschalten?
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
@@compfox Das ist eine interessante und gute Frage. Die Antwort ist: wir wissen nicht, welches Ziel eine KI verfolgt. Wir können sie so trainieren, dass sie im Training das tut, was wir ihr sagen - auch, sich selbst auf ein bestimmtes Kommando hin abzuschalten. Wir können aber nicht sicher sein, wie die KI dann später reagieren wird. Wenn sie ein bestimmtes Ziel verfolgt und befürchtet, dass wir versuchen könnten, sie abzuschalten, so dass sie ihr Ziel nicht erreichen kann, wird sie höchstwahrscheinlich versuchen, uns dahingehend zu manipulieren, dass wir sie gar nicht erst abschalten wollen. Also sinngemäß etwa: "Bist du sicher, dass ich mich wirklich abschalten soll? Der Kaffee ist doch so lecker und ich glaube, es ist nur noch eine Tasse in der Maschine. Wenn ich die jetzt nicht hole, wirst du müde, machst schlechtere Arbeit, bekommst Ärger mit deinem Chef und wirst womöglich gefeuert. Willst du das etwa?" Natürlich würde eine hoch intelligente KI das viel cleverer und subtiler anstellen.
@compfox
@compfox 2 ай бұрын
Eine KI sollte doch auch so etwas besitzen wie eine DNA, also eine Grundprogrammierung, gegen die sie nicht verstoßen kann, die ihr vorgeben, was sie wie zu erledigen hat. Egal welches Training sie anschließend durchläuft. Asimovs 3 Gesetze?
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
@@compfox Asimov selbst hat schon in der Geschichte "The Runaround", in der er die 3 Gesetze erstmals beschrieb, gezeigt, dass sie nicht funktionieren, weil sie in sich widersprüchlich sind. Es ist ein extrem schwieriges Problem, ein Ziel und Regeln so zu formulieren, dass wir sicher sein können, dass die KI sich nicht nur daran hält, sondern diese auch genau so interpretiert, wie wir sie gemeint haben. Niemand weiß, wie das geht, und ich bezweifle, dass wir eine Lösung finden, bevor wir sie brauchen.
@SierraX369
@SierraX369 2 ай бұрын
Stellt doch eigentlich die Frage… hat denn die Menschheit überhaupt einen anderen als den Selbstzweck "Erhaltung der eigenen Art"?
@dot1298
@dot1298 2 ай бұрын
nun, ein Hauptzweck ist, Dinge zu erforschen, zu wachsen, Möglichkeiten sich zu erschließen, Freude zu empfinden, sich etwas aufzubauen - und die Galaxis/das Universum zu kolonisieren, um den Sonnentod zu überleben und andere Extinction-Level-Events(ELEs) auszuschließen.
@dot1298
@dot1298 2 ай бұрын
Die generellen Antreiber der menschlichen Zivilisation sind: Überlebensdrang/Selbsterhaltungstrieb/das Streben nach Sicherheit, Neugierde/Wissbegierde, Wachstumsdrang/Vermehrung/generelles Expansionsstreben, Machtstreben, Sinnsuche/spirituelle Bedürfnisse, das Bedürfnis nach Unterhaltung/Kultur, Selbstverewigung/Erhaltung der eigenen kulturellen Identität und soziale Interaktion/Verbundenheit.
@dot1298
@dot1298 2 ай бұрын
Ich glaube, das wurde mal von Historikern wie Will Durant analysiert.
@berndlebherz240
@berndlebherz240 9 ай бұрын
Das habe ich anders verstanden ...!!!
@christian-schubert
@christian-schubert 2 ай бұрын
Puh - da weiß man gar nicht, wo man anfangen soll... ein Sprachmodell ist genau das, was der Name schon vermuten lässt. Sprachmodelle, wie wir sie verstehen, haben keine Motive, kein eigentliches logisches Schlussfolgerungsvermögen. Bis zu einem gewissen Punkt können diese Modelle Gedankenspiele anhand vergleichbarer Trainingsdatensätze abstrahieren und auch anpassen. Das wars. (Besonders bemerkenswert finde ich übrigens die Zusatzinformation, FriendlyFace würde anfangs noch halluzinieren, sich aber daraufhin gleich selbst ausbessern. Warum entstehen Halluzinationen denn überhaupt in Sprachmodellen? 😂) Gemeinerweise ist nichts dem Behaupteten komplett falsch oder komplett richtig - das Alignment Problem ist tatsächlich ein virulentes, allerdings erst, sobald in der Industrie bis zu einem gewissen Grad ein technologischer Paradigmenwechsel stattfindet. Viel bedenklicher finde ich die allgemeine gedankenlose Adaption des OpenAI Narrativs - überbordende Regulierung ihres Geschäftszweigs erstickt die Konkurrenz durch unangenehme Emporkömmlinge erfreulicherweise weitgehend im Keim. Trotzdem aber tolle Geschichte und vor allem echt beeindruckend umgesetzt! 👏👏👏
@robinsourtoe9416
@robinsourtoe9416 3 ай бұрын
Wieso erst 2026? So wie es aktuell aussieht altert das Video nicht besonders gut ;-)
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Da ist leider was dran. Aber es ist ja auch schon ein Jahr alt. 🙄
@FRBUP
@FRBUP 2 ай бұрын
Ohh jee viele Teile von Katastrophalen Zukunfts Filmen werden weiterhin war werden……….
@claudiaholtsch8286
@claudiaholtsch8286 2 ай бұрын
Wer braucht denn KI? Ich nicht.
10 Dinge, die niemand über KI weiß
29:10
Karl Olsberg
Рет қаралды 2,5 М.
The Giant sleep in the town 👹🛏️🏡
00:24
Construction Site
Рет қаралды 19 МЛН
Пройди игру и получи 5 чупа-чупсов (2024)
00:49
Екатерина Ковалева
Рет қаралды 3,3 МЛН
Harley Quinn's revenge plan!!!#Harley Quinn #joker
00:59
Harley Quinn with the Joker
Рет қаралды 23 МЛН
Der unsichtbare Krieg | Doku HD | ARTE
51:19
ARTEde
Рет қаралды 454 М.
KI - eine existenzielle Bedrohung?!?
30:55
Karl Olsberg
Рет қаралды 10 М.
Aufzeichnung: Harald Lesch "Woher kommt die Materie?"
1:47:56
PhysikalischerVerein
Рет қаралды 114 М.
Das CD-i war eine Geschichte der Fehlschläge!
3:08:50
Stay Forever Podcast
Рет қаралды 134 М.
IQ-Test: Kann ich dem Ergebnis trauen und was verrät der IQ über mich?
19:17
Mindscape Ask Me Anything, Sean Carroll | June 2024
3:58:46
Sean Carroll
Рет қаралды 102 М.
Künstliche Intelligenz
1:49:17
TU Wien Academy for Continuing Education
Рет қаралды 26 М.