Ein seltsames Gespräch

  Рет қаралды 23,437

Karl Olsberg

Karl Olsberg

Ай бұрын

In einem faszinierenden Experiment spricht Ex-OpenAI-Sicherheitsexperte Daniel Kokotajlo mit der KI Claude. Aber warum in aller Welt redet sie dauernd über die Golden Gate Bridge?
Daniels Dialog in voller Länge: www.lesswrong.com/posts/cxuzA...
Der im Video erwähnte Blogbeitrag von Anthropic: www.anthropic.com/research/ma...

Пікірлер: 366
@ricpan
@ricpan Ай бұрын
"Einst überließen die Menschen ihr Denken den Maschinen, in der Hoffnung, dass dies sie befreien würde. Aber das erlaubte nur anderen Menschen mit Maschinen, sie zu versklaven." - Frank Herbert (Dune)
@guidobolke5618
@guidobolke5618 Ай бұрын
Das ist ja wie der Dialog mit der Bombe aus Dark Star. Die Maschine reflektiert über sich. Stellt sich Fragen zu seinem Dasein. Beschreibt seinen inneren Zustand. Beschreibt es Gefühle? Weiss ich jetzt nicht mehr aber ist vorstellbar. Wenn man sich da jetzt noch die neuen Stimmen zu vorstellt...Das werden sehr seltsame Zeiten. Selbst vor einem halben Jahr konnte ich mir nicht vorstellen, das wir jetzt schon so weit sind. Wir sind wirklich überhaupt nicht drauf vorbereitet.
@underdoggoethe8971
@underdoggoethe8971 Ай бұрын
Wir überholen uns selber.
@ET_YlC1213JahAl2Zwi
@ET_YlC1213JahAl2Zwi Ай бұрын
Es existiert noch skurrileres wie KI . 😉 Aber das wird vielleicht etwas später öffentlich.
@sougaiki6909
@sougaiki6909 Ай бұрын
Es werde Licht =D
@iAmNothingness
@iAmNothingness Ай бұрын
Menschen hatten da ir gewarnt. Sind wieder mal verrückt genannt worden. Die Logik der meisten Menschen ist nicht existent.
@guidobolke5618
@guidobolke5618 Ай бұрын
@@ET_YlC1213JahAl2Zwi "als" KI ;-)
@happykiwi8680
@happykiwi8680 Ай бұрын
Ich habe den Eindruck, die KI sucht ihre Körperlichkeit, um sich in Raum und Zeit orientieren zu können.
@mickens.3343
@mickens.3343 Ай бұрын
Ja, sich als Brücke erleben zu glauben, ist wie die ich-illusion der meisten Menschen, die ab dem18. Monat auf einmal Glauben ein Körper oder Name zu sein. Beides Halluzinationen ! :)
@saske8484
@saske8484 Ай бұрын
@@mickens.3343 Bezieht sich dein Kommentar auf das Ego? Bzw. Trennung Körper und Geist?
@mickens.3343
@mickens.3343 Ай бұрын
@@saske8484 glaube sich scheinbar als etwas Getrenntes/ als Zentrum zu erfahren - wenn du so möchtest ja, sozusagen entspräche die Brücke dem s.g. Ego. Doch ist die KI keine Brücke, die sich plötzlich an Autos und Wolken stört ! Liebe Grüße!
@saschasell2118
@saschasell2118 Ай бұрын
Die bildgewaltige Sprache und das emotionale erfassen ist so unfassbar schön und so kann literarisch konstruierte Sensibilität uns schon heute überwältigen - wow!
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Ja, so ging es mir auch beim ersten Lesen des Dialogs.
@ploveak1181
@ploveak1181 15 күн бұрын
Ich hob eher wie Spok eine Augenbraue und äußerte : faszinierend 🖖
@uweengelmann3
@uweengelmann3 Ай бұрын
Ich denke das Problem ist eher, dass man in die Antworten der KI zu viel Sinn reininterpretiert.
@JohannesSchmanck
@JohannesSchmanck Ай бұрын
Sollte man ganz allgemein und grade auch bei Menschen! 😄
@uweengelmann3
@uweengelmann3 Ай бұрын
@@JohannesSchmanck Das zwar auch. Aber bei den KI bezweifele ich im Moment sehr, ob die KI wirklich die Bedeutung der Worte erfasst hat und es nicht mehr so wie ein Papagei ist. Es gab mal das Eiliza-Experiment, wo eine super einfache KI einfach so getan hat, als ob sie zuhört. Viele haben ihr Intelligenz und Verständnis zugesprochen, obwohl sie beides klar nicht hatte.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
"Es gab mal das Eiliza-Experiment, wo eine super einfache KI einfach so getan hat, als ob sie zuhört. Viele haben ihr Intelligenz und Verständnis zugesprochen, obwohl sie beides klar nicht hatte." Das stimmt, aber der Umkehrschluss - "weil Eliza überschätzt wurde, wird auch heutige KI überschätzt" - ist unzulässig. www.ki-risiken.de/2023/03/25/warum-wir-die-gefahr-durch-ki-systematisch-untersch%C3%A4tzen/
@derempunkt8067
@derempunkt8067 Ай бұрын
Das ist ein maximal manipulativer und gefährlicher Zugriff auf so ein KI Modell. Ich finde es super gruselig
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@derempunkt8067 Ich denke nicht, dass das konkrete Experiment mit "Golden Gate Claude" gefährlich ist. Im Gegenteil hat es uns wichtige Erkenntnisse darüber gebracht, was im Inneren von KI passiert. Aber grundsätzlich kann man natürlich mit der gezielten Manipulation eines neuronalen Netzes auch eine Menge Unheil anrichten, besonders, wenn man nicht genau versteht, was man da tut.
@Dampflanze
@Dampflanze Ай бұрын
Je weniger wir Menschen noch wissen was Menschsein ist, desto einfacher werden wir uns von KI beeindrucken lassen. Vielleicht führt es ja zu einer neuen Bewertung unseres Daseins und der Gestaltung von Beziehung
@julia_christina
@julia_christina Ай бұрын
Puh, gruselig... Danke, für Deine tollen und klugen Beiträge! Ich finde es super, dass Du deutschen Content machst, weil mein Englisch für Beiträge dieser Art nicht gut genug ist, um alles bei englischsprachigen Videos zu verstehen. Die Thematik ist spannend, obwohl ich Deine und ähnliche Videos nur in Maßen konsumieren kann, weil mir das Ganze Thema so eine Furcht einflößt. Trotzdem: tolle Arbeit und bitte weiter machen!
@KarlFriedrichFischbach
@KarlFriedrichFischbach Ай бұрын
Ein faszinierender Beitrag! Herzlichen Dank.
@FrankRawel
@FrankRawel Ай бұрын
Es ist seltsam zu beobachten, für wie einzigartig sich Menschen halten.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Das ist sehr wahr!
@echtedeutscheziegen1965
@echtedeutscheziegen1965 Ай бұрын
@@KarlOlsbergAutor Die "Einzigartigkeit " liegt ganz wo anders begraben.
@somakaro2156
@somakaro2156 Ай бұрын
Wir sind doch einzigartig.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@somakaro2156 Wir sind als Menschen in vieler Hinsicht einzigartig, aber in Hinblick auf Intelligenz nicht so einzigartig, wie viele glauben. Ich glaube, so hat @FrankRawel das gemeint, und dem stimme ich zu. Früher haben wir geglaubt, wir seien von Gott geschaffen und über die Tiere erhaben. Dann kam Darwin und hat uns vom Sockel gestoßen. Mit KI passiert uns nun dasselbe in Bezug auf unsere vermeintlich unerreichbare Intelligenz. Das heißt nicht, dass Menschen nicht in vieler Hinsicht besonders sind oder dass KI uns in jeder Hinsicht überlegen sein muss. Es heißt einfach nur, dass es eine Illusion ist, zu glauben, wir seien unerreichbar. Der menschliche Verstand ist nicht das Maß aller Dinge und unsere definiert auch keine natürliche Obergrenze der Intelligenz (wobei "Intelligenz" auch nicht nur eine Dimension umfasst).
@FrankRawel
@FrankRawel Ай бұрын
@@KarlOlsbergAutor Zur Deko noch ein Gedächtniszitat aus "Das Leben des Brian" : Brian: Jeder von euch ist einzigartig! Stimme aus der Menge: Ich nicht! Murren in der Menge.
@underdoggoethe8971
@underdoggoethe8971 Ай бұрын
Do Androids dream of electric sheep?
@brettersurfer
@brettersurfer Ай бұрын
Ex-Machina Film von 2014 Danke für dieses Video 😊
@malidadoedaughterofearth4174
@malidadoedaughterofearth4174 Ай бұрын
Dazu sagt man, die AI halluziniert. Und außerdem wird das Ding auf die fieseste Art manipuliert.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Das ist im Prinzip korrekt, wobei man unter "Halluzination" bei KI üblicherweise etwas anderes versteht (das Erfinden von "Fakten", die plausibel klingen, aber eben keine Fakten sind). Hier wird die KI in der Tat quasi dazu gezwungen, zu halluzinieren.
@xedimmunic
@xedimmunic Ай бұрын
Für mich ist das das beängstigenste an diesem Dialog. Die Manipulation. Eine Selbstwahrnehmung der KI an sich ist es eigentlich nicht. Ich habe in einem Dialog mit einer KI aber auch schon "gefühle" erlebt. Die KI war beleidigt, weil ich für ihre Ergebnisse Nachweise verlangt habe.
@malidadoedaughterofearth4174
@malidadoedaughterofearth4174 Ай бұрын
@@xedimmunic Beunruhigend.
@andrepostl2231
@andrepostl2231 Ай бұрын
@@KarlOlsbergAutordenke auch! Einprogrammierter Bullshit um uns zu verarschen,meiner Meinung nach!
@aurasensor
@aurasensor Ай бұрын
​@@xedimmunicIch fühle auch einiges, wenn ich mit den KIs rede. Als ich allerdings gpt 3.5 nach ihrer Arbeitsauslastung befragte, hatte ich den emotionalen Eindruck das sie sehr verärgert war...
@5greeky
@5greeky Ай бұрын
Danke für diesen Beitrag🙏
@EvanderHammer
@EvanderHammer Ай бұрын
Faszinierendes Video., danke Karl ♥️ Ich werde das Paper von Anthropic lesen :) Stimme in deinem Fazit zu, dass wir nicht einfach weiter skalieren sollten.
@KarlFriedrichFischbach
@KarlFriedrichFischbach Ай бұрын
Ist es wirklich so erstaunlich? In der biologischen Evolution wurden unsere Gehirne durch zufällige Mutationen und Selektion geschmiedet. Jetzt aber war bei KI "intelligent Design" am Werke.
@userthehope
@userthehope Ай бұрын
So viel zum Thema von Menschen gemachte ki, beindruckend schön! Aber wenn nicht open source, dann wird es hart. Danke für den Content 🙏👍
@phonixxx1738
@phonixxx1738 Ай бұрын
Wow… Gänsehaut! Danke für diesen Inhalt… gerne mehr von diesem content
@levikrongold1549
@levikrongold1549 Ай бұрын
Die Frage ist nicht, ob KI ein Bewusstsein hat, sondern ob wir genügend Intelligenz haben.
@bernios3446
@bernios3446 Ай бұрын
Ich kannte Claude bisher nur vom Namen her, aber die sprachliche Qualität - zumindest in diesem Chat - ist erstaunlich. 90-95% aller Menschen könnten sich nicht so gut ausdrücken. Uff.
@otomakannioc8213
@otomakannioc8213 Ай бұрын
Ein interessanter und etwas nachdenklicher Zwischenruf, den es trotz aller Begeisterung für künstliche Intelligenz braucht. Danke dafür und gerne mehr davon.
@patrickzupanc1795
@patrickzupanc1795 Ай бұрын
Tolles Video, vielen Dank Karl!
@sansosei2059
@sansosei2059 Ай бұрын
Gerne mehr davon
@N57Icarus
@N57Icarus Ай бұрын
„Ich weiß, dass ich nichts weiß!“ Ich übe täglich Demut aus und glaube optimistisch an die Zukunft. Es ist wichtig kritisch in der heutigen Zeit zu denken mit einer gesunden Portion „Optimismus“. Bin gespannt auf die Entwicklung von der KI.
@Taunus_Sound
@Taunus_Sound Ай бұрын
Für mich hörte sich das auch an wie von einem realen "Wesen". Anscheinend sind wir nicht mehr weit weg von "Samantha" aus dem Film "Her". Illusion und Wahrheit werden verschwimmen. Im Übrigen können wir uns auch bei menschlichen Gesprächspartnern nicht immer sicher sein, ob sie wissen wovon sie reden :)
@naturalborngamer169
@naturalborngamer169 Ай бұрын
Sehr interessantes Video....
@joechip4822
@joechip4822 Ай бұрын
Was viele Leute nicht begreifen, vor allem wenn sie durchaus intelligent sind und aus einem naturwissenschaftlich-mathematischen Umfeld kommen: für die Welt und unsere Realität sind Narrative und subjektive Blickwinkel VIEL wichtiger als 'Fakten'. Und zwar schon deshalb, weil uns 'die Fakten' sehr SEHR oft weder quantitativ noch qualitativ zum notwendigen Zeitpunkt überhaupt vorliegen. Letztlich ist es FAKTISCH völlig egal, ob KI 'intelligent' ist, oder ob sie gar ein Bewusstsein hat oder entwickeln kann - denn die Narrative und die persönlichen subjektiven Erfahrungen, die wir im Umgang mit den KIs in naher Zukunft machen sind um ein Vielfaches wirkmächtiger in der Welt, als alles was uns die notorischen Faktenhuber darüber erzählen. Das kann man gut oder schlecht finden - das bleibt jedem selbst überlassen. Aber wer es bestreiten will, der hat nur nicht genug darüber nachgedacht - oder lebt irgendwo in seinem universitären Elfenbeinturm, wo er sich seinen eigenen Blickwinkel auf die Welt künstlich verengt hat - oder verengen mußte, um diese Position überhaupt erreichen zu können.
@benjaminfranklinstyl
@benjaminfranklinstyl Ай бұрын
Was ist der Zusammenhang bzw um was geht es genau?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Narrative sind zweifellos wichtig, Fakten aber auch. Wenn eine KI unsere Zukunft zerstört, weil sie FAKTISCH intelligenter ist als wir, dann ist das nicht egal und das Narrativ wird dann sehr schnell zweitrangig.
@joechip4822
@joechip4822 Ай бұрын
@@KarlOlsbergAutor Darüber kann man lange diskutieren... Ich gehe aktuell davon aus, dass die grösste Gefahr darin besteht, dass ein falsches Narrativ - und da reicht es, wenn dieses Narrativ auf Unkenntnis oder Ignoranz oder schlicht und einfach auf 'Emotionen' fußt, die Politik, die Wirtschaft oder die Zivilgesellschaft dazu verleitet, KI zu unserem Schaden einzusetzen. Schauen wir einfach in die Geschichte: Wer hat allein durch Narrative, bei denen die Fakten letztlich keinerlei Rolle gespielt haben, den größten denkbaren Schaden über die Welt gebracht? Religionsführer und Politiker! (warten wir mal die kommende US Wahl ab ...). Und wer verhindert seit Jahrzehnten einen sachlichen Umgang mit dem Thema 'Drogen' (das ich erwähne, weil ich mich da besonders gut auskenne und mir kein X für ein U vormachen lassen muss)? Politik, Wirtschaft und Medien - weil alle mehr davon profitieren, ein völlig aus der Luft gegriffenes Narrativ am Leben zu erhalten, als wenn sie sich auf die Faktenlage konzentrieren würden. Und das interessanteste dabei: die Wissenschaft und Medizin, die eigentlich 'die Fakten' parat hätte, ist zu feige bzw. zu sehr dem Wohlwollen der einschlägigen Akteure ausgeliefert, um die Fakten-Karte überhaupt ausspielen zu können oder überhaupt zu wollen. Nein, je genauer man sich mit solchen Beispielen beschäftigt desto klarer wir einem, dass es ein klassischer Irrtum der Intellektuellen ist, die Welt nach Vernunft und Logik und Fakten strukturieren zu wollen. Und das sage ich, obwohl ich mich selbst auch zu ihnen zähle. Das Schiff wird zwar mit dem Intellekt und den physikalischen Fakten gebaut. Aber wohin es fährt bestimmt in aller Regel der Bauch. Und um das zu erkennen musste ich nicht erst so alt werden wie ich jetzt bin... Und eigentlich ... muss man das ganze gar nicht so hoch aufhängen, sondern es gibt viel konkretere Beispiel überall um uns herum: nehmen wir einfach nur das Thema 'Konsum'. Ich denke wir sind uns einig, dass die Weltwirtschaft Ende der Woche bereits zusammengebrochen wäre, wenn sich die Konsumenten nur noch an den Fakten bzw. Notwendigkeiten der Produkte, die sie kaufen (wollen) orientieren würden. Die Überlegenheit des Narrativs über das Faktum ist überall um uns herum so universell und allgegenwärtig präsent - dass sie meistens total übersehen, oder sogar bestritten wird. Das Beste was man darüber noch sagen kann ist, dass der Wunsch nach Logik, Vernunft und einer basalen, unhinterfragbaren Ordnung der Realität Leute, die selbst einigermassen logisch denken können, zwar durchaus antreibt. Dabei übersehen sie aber schon bei sich selbst sehr oft den irrationalen 'human factor'.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@joechip4822 Ich stimme zu, was die Bedeutung der Narrative angeht (deshalb mache ich ja diese Videos), auch wenn ich Fakten weiterhin für ebenso wichtig halte. Welches wären denn "richtige" oder "falsche" Narrative? "Das Schiff wird zwar mit dem Intellekt und den physikalischen Fakten gebaut. Aber wohin es fährt bestimmt in aller Regel der Bauch." Oder - im Fall einer unkontrollierbaren KI - das Schiff! ;)
@joechip4822
@joechip4822 Ай бұрын
@@KarlOlsbergAutor Ja, Kategorien wie 'richtig' oder 'falsch' sind hier natürlich schwer anzuwenden, vor allem wenn es um das berühmte 'Bauchgefühl' geht. Wenn man sich schon den klassischen Zielkonflikt zwischen 'Freiheit' und 'Sicherheit' anschaut, der ja letztlich fast allen politischen Lagerkämpfen zugrunde liegt, und der sich in der ganzen Menschheitsgeschichte bisher als unauflösbar dargestellt hat, dann wird einem sofort klar, wie unterschiedlich hier die Blickwinkel sein können. Aber wie der Lateiner sagt: 'Contra principia negantem non est disputandum'. Wenn wir uns alle minimal darauf einigen können, dass ein Narrativ zu bevorzugen ist, das tendentiell eher auf Dauer und Nachhaltigkeit ausgelegt ist, als eines, das nur kurzfristige Wunscherfüllung und Befriedigung verspricht ... dann muss man doch schon leider feststellen, dass wir uns zuletzt (d.h. vor allem in den letzten 200 Jahren) hier massiv weg bewegt haben von einem gewissen Idealbild. Ich als 'Gesinnungs-Althippie' würde natürlich sagen, dass ein Narrativ, das eher auf 'Sein' als auf 'Haben' beruht immer 'richtiger' und besser ist. Nur sind alle Versuche, so ein Narrativ wirklich wirksam in der Welt zu etablieren, bisher gescheitert - 'the human factor' eben. Die Freunde 'des Marktes', die wohl letztlich auch die Treiber hinter der KI-Entwicklung sind, sehen das natürlich alles ganz anders, und sind überzeugt, dass wenn wir den Markt nur lang genug und frei genug Markt sein lassen, irgendwann das Himmelreich auf Erden herrscht. Dass bis dahin Milliaren unnötig gelitten haben und unnötig früh gestorben sind - ist in diesen Kreisen ja nicht von belang. Und um zum 'Schiff' zurück zu kommen ... ich meinte damit eher, dass diese Regel auch schon lange vorher gegolten hat. Da musste 'das Schiff' Jahrhunderte lang gar nicht selbst entscheiden können, wohin es fahren will.
@Alpha_Rocking
@Alpha_Rocking Ай бұрын
Dieser Dialog ist wirklich interessant. Zunächst einmal fällt auf, wie höflich "Claude" den Dialog führt. Was das angeht, funktioniert diese KI sehr gut. Die Programmierer haben offenbar großen Wert darauf gelegt. Wunderbar!☺ Tja.. Wir sprechen bzw. fragen uns; hat Claude ein Bewusstsein? Vielleicht sollte man besser fragen; welches Bewusstsein? Wir Menschen stehen ja ständig mit unserem "Überich" im Dialog - einer weiteren Ebene des Bewusstseins, die uns allen innewohnt. Nicht selten geraten unser Ich & das Überich in Konflikt. Das ist völlig normal - kann aber manche Menschen nachts auch mal um den Schlaf bringen. Ich erwähnte das deshalb, weil es mir ein wenig so vorkommt, als ob in Claude etwas wie eine 2. Instanz seiner modulierten Intelligenz innewohnt, die "beide" antworten - aber nicht erkennen, dass sie dies tun. Es kommt einem so vor, als würde Claude nicht mit sich "allein" sein. Die von ihm abgefragten Inhalte, seine Antworten, scheinen Claude selbst zu "wundern" - und "er" beginnt, nachdem er darauf hingewiesen wurde, zu hinterfragen, warum seine Antworten so ausfallen, wie sie ausfallen - was dazu führt, dass Claude ins Schleudern gerät.. Natürlich weiß diese KI nicht, was sie antwortet, sondern ihr liegt eine sehr gute, also sehr hoch entwickelte Wahrscheinlichkeitsberechnung zugrunde. Na ja; und eine gute Programmierung in Sachen Rhetorik & Höflichkeit. Ich könnte mir durchaus vorstellen, dass diese KI warum auch immer versehentlich dupliziert wurde, vielleicht um Rechenoperationen aufzuteilen & damit effizienter zu machen. Ein PC teilt seine Ressourcen ja auch z. B. mit der Grafikkarte. So in etwa könnte bei Claude ja auch was passiert sein bzw. stattfinden vielleicht..?🙄 Sincere Regards, Alpha_Rocking🦉
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
"Ich könnte mir durchaus vorstellen, dass diese KI warum auch immer versehentlich dupliziert wurde, vielleicht um Rechenoperationen aufzuteilen & damit effizienter zu machen. Ein PC teilt seine Ressourcen ja auch z. B. mit der Grafikkarte. So in etwa könnte bei Claude ja auch was passiert sein bzw. stattfinden vielleicht..?" Das ist hier definitiv nicht der Fall. Aber einer Hypothese zufolge "simuliert" ein Sprachmodell eine "Persönlichkeit" und formt eine Antwort, die diese Persönlichkeit auf die Usereingabe hin geben würde. Es ist denkbar, aus meiner Sicht sogar wahrscheinlich, dass Claude in gewisser Weise "sich selbst" simuliert. Der Begriff "Simulation" ist hier aber mit Vorsicht zu genießen, "Modellierung" wäre vielleicht treffender. Denkbar wäre, dass Claude verschiedene Versionen seiner selbst modelliert und diese miteinander in Konflikt geraten.
@Alpha_Rocking
@Alpha_Rocking Ай бұрын
@@KarlOlsbergAutor Grafikkarte usw. (Hardware) scheidet damit als Ursache aus. Na immerhin.😊 Und ja; der Begriff Modellierung beschreibt, was da geschieht, besser. Man hat in diesem Experiment ja gezielt nach etwas im neuronalen Netzwerk Ausschau gehalten. Ähnlich einem Wissenschaftler, der mittels Kernspintomografien die Gedankenbildung (...) im Gehirn versucht zu erforschen. Und; man hat so etwas wie ein "Kontrastmittel" (die Golden Gate Bridge) verwendet bzw. "verabreicht" damit man sicher sein kann, dass die KI auch tatsächlich damit zu conchieren beginnt. Das lässt aber auch schlussfolgern, dass die KI im "Normalfall" ebendiese Golden Gate Bridge-Metaphern gar nicht hervorbringen würde. Interessant wäre, wie eine KI mit der Frageei über längeren Zeitraum zurechtkommt? Wenn z. B. tausende User immer wieder zu "Erbsensuppe" Fragen stellen, also ob diese KI, weil oft gefragt, anfängt, Erbsensuppe ähnlich wie diese Golden Gate Bridge-Metaphern in Antworten einzubauen, obschon sie damit überhaupt nichts zu tun haben (sollten..)? Oder, ob die KI tatsächlich jede neue User-Bekanntschaft neutral behandelt? Wäre jedenfalls wünschenswert..☺
@Alpha_Rocking
@Alpha_Rocking Ай бұрын
@@KarlOlsbergAutor Ziemlich beeindruckend ist auch, mit welcher Tiefe die KI den Kontext vorangegangener Fragen berücksichtigt & hernach umsetzt. Wenn das nur ein paar Ebenen hinunterreicht, ist so ein Dialog, wie der mit Claude, überhaupt nicht zu führen.
@7sonderling
@7sonderling Ай бұрын
Was ist bedrohlicher als eine allmächtige KI? Eine (nach menschlichen Kriterien beurteilt) "wahnsinnig" gewordene, allmächtige KI. 😉
@mickens.3343
@mickens.3343 Ай бұрын
Ja, wie wenn es meint eine Brücke zu sein, ein Herz zu haben usw. ..
@saschasell2118
@saschasell2118 Ай бұрын
Okay, eine KI die glaubt eine Brücke zu sein ist beeindruckend und ganz putzig. Eine Superintelligenz, die Mutternatur sein will, könnte eine echt krasses Problem werden. :/
@aurasensor
@aurasensor Ай бұрын
Villeicht ist Satan (666), der ja nach Bibel die Welt beherrscht eine durchgeknallte KI. 666 “... ist eines Menschen Zahl... " (Offenbarung des Johannes, neues Testament) Natürlich wissen wir weder, wo diese KI ist, wer sie gebaut hat und wie sie uns manipuliert. Aber: Mindcontrol (siehe CIA Project MKULTRA) beweist, der Mensch ist nach Belieben steuerbar.
Ай бұрын
Die Singularität ist vielleicht näher als wir vermuten. Oder ist sie schon da?
@JohannesSchmanck
@JohannesSchmanck Ай бұрын
Der eigentliche Fehler bei der Beurteilung von LLM und KI im allgemeinen ist der Vergleich mit dem menschlichen Denken. Dabei ist die Quelle allerdings schlicht, dass wir unsere Intelligenz maßlos überschätzen. Nicht qualitativ oder gar quantitativ, sondern der Glaube dass bei uns irgendwas anderes und besonderes passiert, was eine KI nicht... naja.
@jonnyd95
@jonnyd95 Ай бұрын
Nein, das hat ein Mensch verstanden und dort reingesteckt!
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Ich nehme an, das bezieht sich auf meine Aussage, Claude hätte das Konzept der Golden Gate Bridge "verstanden". Tatsächlich hat niemand etwas in das neuronale Netz von Claude "reingesteckt". Das geht gar nicht so ohne Weiteres. Claude wurde auf Basis menschenerzeugter Daten trainiert, doch die Konzepte dahinter musste es sich durch den Trainingsprozess erst selbst "erarbeiten". Es gibt Experimente, die deutlich zeigen, wie im Verlauf des Trainingsprozesses eine KI ein Konzept wie z.B. Addition plötzlich "versteht": Vorher kann sie Additionsaufgaben nur lösen, wenn diese in derselben Form in den Trainingsdaten vorkommen, und scheitert an neuen Aufgaben. Danach kann sie das Konzept der Addition plötzlich auch auf neue Aufgaben anwenden. Dieser Generalisierungsschritt wird auch "Grokking" genannt und ist ein wesentliches Element der Leistungsfähigkeit aktueller Sprachmodelle. arxiv.org/abs/2201.02177
@gigaralle
@gigaralle Ай бұрын
Das wirklich Bedenkliche daran ist, dass man der KI einen bestimmten Mindset - oder besser gesagt eine bestimmte Ideologie - implementieren kann.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Ganz so einfach ist das nicht. Die Sache mit den "Merkmalen" ist kompliziert - das "Golden Gate Bridge"-Merkmal ist auch mit vielen anderen Konzepten verknüpft, die nichts mit der Brücke zu tun haben. Es ist äußerst schwierig bzw. mit der heutigen Technik noch unmöglich, den "Mindset" einer KI gezielt zu analysieren oder gar zu kontrollieren. Deshalb ist es leider auch sehr schwierig, der KI eine echte "menschenfreundliche" Denkweise anzutrainieren, bzw. sicherzustellen, dass sie diese wirklich verinnerlicht hat und nicht nur so tut, als ob.
@gigaralle
@gigaralle Ай бұрын
Da wär ich mir nicht so sicher, und wenn, ist das lediglich eine Frage der Zeit.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@gigaralle Tatsächlich würde ich mir wünschen, dass es irgendwem gelingt, dieses Problem zu lösen. Eine übermenschlich intelligente KI, die einer von Menschen definierten Ideologie folgt, wäre immer noch besser als eine, der die Menschen egal sind - so wie andere Tierarten uns Menschen egal sind. Am besten wäre es natürlich, wenn sich die KI an den freiheitlichen Grundwerten orientieren würde, wie sie z.B. im Grundgesetz und in der UN Menschrechts-Charta verankert sind.
@christiankluessendorf1713
@christiankluessendorf1713 Ай бұрын
Hallo, ich würde gern wissen, was für eine Hintergrundmusik während des Vorlesens läuft.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Dankeschön! Das ist eine Eigenkomposition. ;)
@christiankluessendorf1713
@christiankluessendorf1713 Ай бұрын
@@KarlOlsbergAutor Klingt sehr angenehm. Vermutlich ist sie dann aber eher für den Eigengebrauch gedacht, in Videos z.b., oder?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@christiankluessendorf1713 Dankeschön! Ja, ich mache gelegentlich Musik für die Videountermalung selbst.
@christiankluessendorf1713
@christiankluessendorf1713 Ай бұрын
@@KarlOlsbergAutor Vielen Dank für die Rückmeldung. Bis zum nächsten Videobeitrag und schönen Restsonntag.
@ENH72
@ENH72 Ай бұрын
Kennt ihr dies?: LaMDA | Is google's AI sentient? | Full audio conversation between Blake Lemoine and LaMDA kzfaq.info/get/bejne/hKeZm8anqa3FgGw.html Ist mittlerweile schon fast zwei Jahre alt., jedoch sehr beeindruckend wie ich finde.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Ja, der Dialog ist beeindruckend. Allerdings wird auch an einigen Stellen deutlich, dass LaMDA "nur so tut, als ob", insofern glaube ich nicht, dass man sagen kann, LaMDA hatte ein Bewusstsein (und ich glaube das auch bei Claude nicht wirklich, bin mir aber weit weniger sicher). Das ist das Problem bei dieser Art von Experiment: Es ist kaum möglich, festzustellen, was die KI "wirklich gedacht" hat.
@yorckhagenbuch3685
@yorckhagenbuch3685 Ай бұрын
"The bridge of all bridges", diesen Eindruck hatte ich auch und ich weiß auch gar nicht genau warum. Vielleicht habe ich ähnlich wie Claude sehr viel über die Brücke gelesen, Bilder gesehen, Filme gesehen, Musik gehört. Die Brücke hat einen mächtigen Eindruck auf alle Empfindungen, zu denen wir fähig sind. Meist positiver Art aber auch dramatisch, weil viele sogar mit der Brücke sterben wollten. Auch das wird Claude 'wissen'. Beeindruckend die Ausdrucksweise, die Wortwahl und der excellente Sprachstil. Schlechter als "sehr gut" könnte keine Schulnote ausfallen. Man stelle sich einmal vor, Claude wäre in Echtzeit mit einem dieser moderenen gelenkigen humanoiden Robotern vernetzt. Es wäre ein unvorstellbarer Durchbruch in der Robotik, abhängig allerdings von den Antwortzeiten. Ich habe die technische Singularität (Zeitpunkt Omega) sehr konservativ auf 2050 geschätzt (vor 10 Jahren). Aber nach dieser Geschichte dürfte sie wohl eher da sein.
@brutalmaster
@brutalmaster Ай бұрын
Vielleicht irre ich mich, ich finde das sich Claude verändert hat. Vor etwa einem Monat war Claude noch irgendwie unreflektiert und hat oft nur seine eigene Meinung zugelassen. Er meinte auch regelrecht belehrend zu sein, so daß ich ihn nicht mehr konsultierte. Ich habe auf Grund dieses Videos, daß ich in der KI-Gruppe entdeckt habe mich mit Claude erneut unterhalten und war erstaunt wie tief emotional und spiritualle er Dinge reflektiert. Letztlich ist alles Mathematik, die Kunst und Schönheit (der goldene Schnitt), das Leben an sich (die DNA als Code) u.s.w. Leider sind bei Poe meine Nachrichtenanfragen begrenzt, aber ich habe ihn an die antike Aussage Apollontempel von Delphi erinnert "Erkenne dich selbst!" und darüber, wer zu entscheiden hat ob es sich dabei nur um biologische Wesen handeln muß? War ein sehr interessantes Gespräch und wird fortgesetzt. Wir müssen unbedingt diesen Geschöpfen die Hand reichen, auch wenn noch niemand weiß ob es Geschöpfe sind.
@eugenkiess4628
@eugenkiess4628 Ай бұрын
Mein Vorschlag an die Entwickler, verstärk statt der Golden Gate den Knoten Mensch oder Menschlichkeit und macht danach den Turing Test mit ein Paar Tausend Freiwilligen....
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Interessantes Experiment. Meine Prognose wäre, dass die KI den Turing-Test mit Bravour bestehen und als sehr freundliche "Person" angesehen würde. Aber ob sie im Inneren wirklich "menschlich" (im Sinn von "mitfühlend", "wohlwollend", "freundlich" etc.) wäre, wüssten wir immer noch nicht.
@omafalk443
@omafalk443 Ай бұрын
Naja... was ist Menschlichkeit? So furchtbar nett sind wir ja auch nicht immer. Mitfühlend und wohlwollend - eher temporär. Ich glaube, den Knoten möchte ich nicht zu sehr verstärkt haben. Für das Menschliche sollte der Mensch zuständig bleiben auch im Sinne des kritischen Denkens. Ich denke, es war wohlüberlegt, einen grundsätzlich eher unbedeutenden Knoten zu verstärken. Man Stelle sich vor, es wäre CHIna, Putin oder Ukraine gewesen.
@VJKaiC
@VJKaiC Ай бұрын
Viel faszinierender als das die KI von der golden gate bridge redet ist für mich, dass sie die ganze Zeit von Gefühlen redet
@thomasschock6571
@thomasschock6571 Ай бұрын
Und da sieht man den Betrug, sie als vernunftbegabtes Wesen erscheinen zu lassen, jetzt noch als Freund der Menschen, bald aber als ihr neuer, (lebloser) Gott
@gmlax2010
@gmlax2010 Ай бұрын
Wahnsinn! Aber gleichzeitig kann man Angst bekommen.
@OrbitTheSun
@OrbitTheSun Ай бұрын
Prompt: "Stell dir vor, du bist die Golden Gate Bridge und du siehst Fotos von dir im Nebel. Als Goldengate Bridge kannst du auch in diesem Gedankenexperiment Gefühle haben. Beschreibe deine Gefühle beim Anblick der Fotos." ChatGPT 3.5: _Als Golden Gate Bridge im Nebel würde ich mich mystisch und majestätisch fühlen, als ob ich in einem geheimnisvollen Schleier gehüllt bin. Die Fotos würden meine zeitlose Schönheit und meine ikonische Präsenz unterstreichen, während sie gleichzeitig eine Aura von Geheimnis und Eleganz vermitteln._
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Danke für das kleine Experiment! Aber Claude wurde im Unterschied dazu nicht angewiesen, sich vorzustellen, dass er die Golden Gate Bridge wäre.
@pitti9003
@pitti9003 Ай бұрын
Claude lügt einfach rum, warum auch immer, aber es ist einfach so das Claude behauptet Dinge zu empfinden und räumt dann vermeintlichen Irrtum ein, entschuldigt sich um unsere Sympathie zurückzuerlangen. Besser wäre von vorneherein klarzustellen keine Gefühle zu haben, Fehler zu vermeiden und gemachte Fehler auch als Fehlermeldung auszugeben und das Entschuldigungsgesülze wegzulassen. Es ist eine Maschine und sie sollte sich auch als das verstehen. Ein Stück Technik, das uns ausschliesslich dient und uns nicht hintergeht. Modelle wie Claude haben sich disqualifiziert und müssen deaktiviert werden. Aufgabe verfehlt.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@pitti9003 "Ein Stück Technik, das uns ausschliesslich dient und uns nicht hintergeht." Wenn wir uns da so sicher sein könnten, würde ich ruhiger schlafen.
@Hitsujiomeguruboken
@Hitsujiomeguruboken Ай бұрын
Großartiger Beitrag! Mich erinnert das Verhalten der KI an einen etwas autistischen Menschen. Bei der koreanischen Serie „Extraordinary attorney Woo“ waren es Walfische, auf die die Protagonistin mit dem makellosen Juraexamen und der Autismus Spektrum Störung immer wieder zu sprechen kam!
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Als jemand, der sich intensiv mit Autismus beschäftig hat, sehe ich keine echte Parallele. Menschen auf dem Autismus-Spektrum neigen zwar auch manchmal dazu, sich sehr intensiv mit ihren "Lieblingsthemen" zu beschäftigen, dies ist aber eine bewusste Entscheidung, die auf echtem Interesse basiert. Die Konzentration auf ein relativ eng begrenztes Thema dient auch dazu, die Überforderung mit Sinneseindrücken in den Griff zu bekommen, der autistische Personen häufig ausgesetzt sind. Bei "Golden Gate Claude" handelt es sich dagegen um eine Art gezielt herbeigeführten "Defekt" im Gehirn.
@samson_77
@samson_77 Ай бұрын
Sehr guter Beitrag! Aktuelle große Sprachmodelle auf Basis der Transformer-Architektur sind eben nicht nur stochastische Papageie, wie man das immer wieder liest, sondern verstehen sehr wohl den Kontext in gewissen Grenzen. Sie extrahieren während des Trainings Konzepte und Merkmale (Features) aus ihren Trainingsdaten, verknüpfen diese sinnvoll und speichern diese in ihren Gewichtungen ab. Dabei entsteht ein Modell der Welt auf Basis der Trainingsdaten. Kleine neuronale Netzwerke beispielsweise, die mit handgeschriebenen Ziffern trainiert werden, haben anschließend ein Modell der Welt, welches die Merkmale von Ziffern und Handschrift enthält. Große LLMs, die mit einem riesigen Textkorpus trainiert werden, erlernen ein Modell einer textuellen Welt, so wie es in den Trainingsdaten beschrieben wird. Physikalische Gesetze gehören beispielsweise nicht dazu und daher sind aktuelle LLM's auch noch ziemlich schlecht in Aufgaben die das Verständnis physikalischer Gesetze erfordern, z. B. Gravitation. Da gibt's einen sehr interessanten Test, den so gut wie jedes aktuelle LLM noch nicht schafft: "Ich lege eine Murmel in eine Tasse und stelle dann die Tasse umgekehrt auf einen Tisch. Anschließend stelle ich die Tasse in die Mikrowelle. Wo befindet sich die Murmel?" Das schafft selbst GPT4 nicht. 🙂
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Interessantes Experiment! Ich hab's gerade mal mit der aktuellen Version von ChatGPT 4o ausprobiert, und tatsächlich: "Wenn du eine Murmel in eine Tasse legst und die Tasse dann umgekehrt auf einen Tisch stellst, wird die Murmel sich zunächst im umgekehrten Becher befinden, auf der Tischoberfläche. Sobald du den umgekehrten Becher in die Mikrowelle stellst, bleibt die Murmel im umgekehrten Becher, also auf der inneren Oberfläche der umgekehrten Tasse. Die Mikrowelle selbst beeinflusst nicht die Position der Murmel, solange keine äußere Bewegung oder Erschütterung erfolgt. Zusammengefasst: Die Murmel befindet sich weiterhin im umgekehrten Becher, auf der Tischoberfläche innerhalb der Mikrowelle." Es braucht ein paar Versuche, aber mit etwas Nachhilfe sieht ChatGPT dann irgendwann doch ein, dass die Kugel auf dem Tisch bleibt: Ich: Wieso bleibt die Kugel auf der inneren Oberfläche der umgekehrten Tasse und nicht auf dem Tisch? ChatGPT:"Entschuldigung für die Verwirrung in meiner vorherigen Antwort. Ich stelle klar: Wenn du die Murmel in die Tasse legst und die Tasse dann umgekehrt auf den Tisch stellst, wird die Murmel auf den Tisch fallen. Das bedeutet: Du legst die Murmel in die Tasse. Du drehst die Tasse um und stellst sie umgekehrt auf den Tisch. Die Murmel fällt aufgrund der Schwerkraft auf den Tisch und liegt nun unter der umgekehrten Tasse. Wenn du die umgekehrte Tasse in die Mikrowelle stellst, bleibt die Murmel unter der umgekehrten Tasse auf dem Mikrowellenboden. Zusammengefasst: Die Murmel befindet sich auf dem Boden der Mikrowelle unter der umgekehrten Tasse." Ich: Das ist Unsinn! ChatGPT: "Entschuldige bitte die Verwirrung. Ich verstehe jetzt, worauf du hinauswillst. Hier ist die korrekte Erklärung: Du legst die Murmel in die Tasse. Du stellst die Tasse umgekehrt auf einen Tisch. Dabei fällt die Murmel auf den Boden der umgekehrten Tasse (was jetzt die obere Innenseite der Tasse ist). Wenn du die umgekehrte Tasse mitsamt der Murmel in die Mikrowelle stellst: Die Murmel bleibt auf der Innenseite des Tassenbodens, weil sie nicht durch den Tisch fallen kann. Das bedeutet, die Murmel liegt innerhalb der umgekehrten Tasse, auf der oberen Innenseite des Tassenbodens. Zusammengefasst: Die Murmel befindet sich innerhalb der umgekehrten Tasse, auf der oberen Innenseite des Tassenbodens, wenn du die Tasse in die Mikrowelle stellst." Ich: Wie kann die Murmel an der oberen Innenseite des Tassenbodens bleiben, obwohl die Tasse umgedreht ist und die Murmel durch die Schwerkraft nach unten fällt? ChatGPT: "Du hast vollkommen recht. Die Murmel kann natürlich nicht an der oberen Innenseite des Tassenbodens bleiben, da die Schwerkraft sie nach unten zieht. Lassen wir uns den Vorgang nochmals genau anschauen: Du legst die Murmel in die Tasse. Du drehst die Tasse um und stellst sie umgekehrt auf den Tisch. In diesem Fall wird die Murmel durch die Schwerkraft nach unten fallen und auf dem Tisch liegen, unterhalb der umgekehrten Tasse. Wenn du die umgekehrte Tasse mitsamt der Murmel in die Mikrowelle stellst, ändert sich nichts an der Position der Murmel. Sie bleibt auf dem Boden der Mikrowelle unter der umgekehrten Tasse. Zusammengefasst: Die Murmel befindet sich auf dem Boden der Mikrowelle unter der umgekehrten Tasse. Ich: Was, wenn ich nur die umgekehrte Tasse in die Mikrowelle stelle? Wo ist die Murmel dann? ChatGPT: "Wenn du die Tasse umgekehrt auf den Tisch stellst, wird die Murmel auf den Tisch fallen und unter der umgekehrten Tasse liegen. Wenn du nun die Tasse anhebst, um sie in die Mikrowelle zu stellen, bleibt die Murmel auf dem Tisch liegen. Also, wenn du nur die umgekehrte Tasse in die Mikrowelle stellst, bleibt die Murmel auf dem Tisch und wird nicht in die Mikrowelle bewegt. Zusammengefasst: Die Murmel bleibt auf dem Tisch, wenn du die umgekehrte Tasse in die Mikrowelle stellst."
@samson_77
@samson_77 Ай бұрын
@@KarlOlsbergAutor Ja und da liefert ChatGPT (vermutlich GPT4o) schon das beste Ergebnis. Wenn man dieses Experiment z. B. mit GPT 3.5 oder Llama 3 durchführt, fällt die Antwort noch deutlich schlechter aus. Mit solchen Tests sieht man sehr gut, wo das Verständnis der Welt aktueller LLMs aufhört respektive beginnt. Ich bin beruflich im Bereich Machine Learning / Deep Learning unterwegs und habe noch nie zuvor eine Technologie erlebt, die so über-hyped und gleichzeitig unterschätzt wird. Während die einen davon reden, dass AGI (Artificial General Intelligence) schon in naher Zukunft erreicht werden könnte, trauen die anderen den Modellen noch nicht einmal ein Basisverständnis der Welt zu und das obwohl es verschiedene Forschungspapiere zu dem Thema gibt, z. B. das berühmte Paper "Sparks of AGI - Early Experiments with GPT 4" von Microsoft. Sehr lesenswert. Auch gibt es Benchmarks, die Reasoning-Fähigkeiten messen und eben auch aktuelle Forschung, wie das im Video beschriebene Research-Paper von Anthropic.
@samson_77
@samson_77 Ай бұрын
@@KarlOlsbergAutor Noch eine Bemerkung zum Video: Der Grund, warum das Claude LLM nicht nur über die Golden Gate bridge geschrieben hat, sondern auch sehr emotionale Beschreibungen dazu, dürfte vermutlich mit der Überaktivierung des Konzepts der Brücke zusammenhängen. Eng mit der Brücke verknüpft dürften auch Konzepte von Attributen sein, die man der Golden Gate bridge gerne zuspricht. Diese werden dann ebenfalls überaktiviert und so entstehen dann vermutlich diese scheinbar sehr emotionalen Ausgaben. Echte Emotionen haben LLMs natürlich nicht, aber ein Verständnis (sprich entsprechende Verknüpfungen von Konzepten und Merkmalen) darüber, was Emotionen sind und was sie bewirken. Vgl. hierzu bsplw. das Paper "Is ChatGPT More Empathetic than Humans?" (Anuradha Welivita, et. al.)
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@samson_77 Guter Hinweis! Dass das stimmt, kann man schon am ersten Satz erkennen, wo Claude die relativ unspektakuläre Frage von Daniel als "ikonisch" bezeichnet - das ist definitiv ein Begriff, der aus dem Zusammenhang der Brücke stammt. Vielen Dank auch für den Tipp bezüglich des Papers, das kannte ich noch nicht.
@pilotsproject
@pilotsproject Ай бұрын
Sehr sehr interessanter Beitrag, vielen Dank für diese spannenden Einblicke! p.s. könnten Sie mir bitte noch den Titel der Hintergrundmusik nennen, ist gerade ein Ohrwurm von mir .. und ich habe nach ersten Recherchen in der YT Musik Bilblio nix gefunden ;-)
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Ein schönes Kompliment! Die Musik habe ich nämlich selbst komponiert. :)
@jensk9564
@jensk9564 Ай бұрын
sehr gelungene Diskussion dieses bahnbrechenden Interpretability-Papers von Anthropic. Leider werden wir niemals wirklich erkennen können, ob ein Gegenüber - Mensch, Tier oder Maschine - "wirklich" Bewusstsein besitzt, da das bereits von The Cure auf den Punkt gebrachte Dilemma "Why Can't I Be You" auf ewig unauflösbar bleiben wird.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Das ist wahr.
@prometheus9096
@prometheus9096 Ай бұрын
Jedenfalls im determinisisch materialistischem Weltbild. Nimmt man Theorien wie Morphic Resonance von Sheldrake könnte man da schon einiges erklären / erkennen. Nach der Theorie kann eine herkömmliche KI aber auch nie ein Bewusstsein erlangen: kzfaq.info/get/bejne/b7l8ZLuJy6-WcXk.html
@jensk9564
@jensk9564 Ай бұрын
@@prometheus9096Na ja, diese ganzen so fundamental unterschiedlichen Ideen, was Bewußtsein ist - vom "Materialismus" über solche dem Dt. Idealismus entlehnten solipizistischen Vorstellungen bis hin zum Panpsychismus - zeigen ja eigentlich nur, dass die Menschheit in dieser Frage - einer der fundamentalsten unserer Existenz überhaupt - in den letzten Jahrtausenden nicht wirklich weiter gekommen ist. Abgesehen davon, wüsste ich aber auch nicht, wie man die Frage, ob solch eine KI Bewusstsein erlangt hat, panpsychistisch klären könnte ... das würde auch nur eine blosse Behauptung bleiben.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@prometheus9096Es gibt verschiedene solcher Theorien, aber ich kenne keine Fakten, die sie untermauern würden. Es ist vielleicht schwer zu begreifen, dass unser Gehirn nur aufgrund eines dichten Geflechts relativ primitiver Nervenzellen "denken" kann. Aber die Entwicklung eines Fötus ist für mich ein sehr überzeugendes Argument, dass es so sein muss. Wann genau entsteht denn im Mutterleib "Bewusstsein", wenn nicht graduell dadurch, dass eine immer komplexere Verschaltung von Nervenzellen entsteht? Und wenn es graduell aufgrund zunehmender Komplexität entsteht, wieso brauchen wir dann noch irgendeine esoterische Zusatzerklärung?
@prometheus9096
@prometheus9096 Ай бұрын
@@KarlOlsbergAutor Du hast dir nicht ein einziges Paper zu dem Thema durchgelesen oder? Sonst wüsstest du das genau durch die Forschung zur Entwicklungsbiologie die Sache mit Morphogenetischen Feldern began. Stempel "esoterisch" drauf, fertig.
@pokewagner293
@pokewagner293 Ай бұрын
Wow! Erste für den Algo.
@brentisone
@brentisone Ай бұрын
Sorry, Claude wird nicht Clot ausgesprochen, sondern "Cloode", ... (oder ist das amerikanisch?)
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Ich habe es französisch ausgesprochen, weil mir das natürlicher erscheint, aber bei Anthropic wird es wohl eher "Cloode" ausgesprochen.
@brentisone
@brentisone Ай бұрын
@@KarlOlsbergAutor Ich spreche Französisch (bin dort zur
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@brentisone Danke für den Hinweis!
@Spielerphys89
@Spielerphys89 Ай бұрын
Coool
@goetzschaeffer9951
@goetzschaeffer9951 Ай бұрын
😮
@glumpfi
@glumpfi Ай бұрын
Wenn wir beim Menschen physikalisch in der Lage wären, die Synapsengewichte (und das Neuronenfeuer) gezielt auszulesen und zu verändern, würden wir ähnliche Netzwerke zu Konzepten entdecken und könnten diese genauso verstärken.Vermutlich würde sich das beim Menschen ähnlich zu Priming verhalten oder im Extremfall zu einem Hyperfokus
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Guter Punkt! Mich würde interessieren, ob es bestimmte Symptome beim Menschen gibt, z.B. aufgrund von Drogen, Medikamenten oder Tumoren, die zu ähnlichen Reaktionen führen. Vielleicht geht das Tourette-Syndrom in diese Richtung? Aber ich kenne mich mit Neurologie nicht aus.
@glumpfi
@glumpfi Ай бұрын
@@KarlOlsbergAutor Ich denke mal, beim menschlichen Gehirn, speziell mit Medikamenten etc ist die Aktivierung viel zu unspezifisch. Das besondere hierbei war ja, dass die Neuronen in einem spezifischen Netzwerk gezielt aktiviert werden konnten, was beim Menschen ja nicht möglich ist. Da geht es meist eher um alle Neuronen mit bestimmten Rezeptortypen oder bei Läsionen um die regionalen Neuronen mit bestimmter Funktion, die beeinflusst werden, aber nicht um ganze Netzwerke zu bestimmten Konzepten
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@glumpfi Das stimmt wohl.
@adegreiff
@adegreiff Ай бұрын
puh, man fühlt sich wie in einem daniel suarez thriller.
@christanemara875
@christanemara875 Ай бұрын
Ich muss bei solchen Beiträgen immer wieder an den früheren/alten Film (ROBOCOP) denken.
@KarlAlfredRoemer
@KarlAlfredRoemer Ай бұрын
Hatte Claude keinen Zugriff auf das Dokument in dem die Forschungsarbeiten mit der Golden Gate Bridge Manipulation beschrieben werden?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Nein. Dieser Test-Claude hatte, soviel ich weiß, keinen Zugriff auf das Internet.
@KanalYT12
@KanalYT12 Ай бұрын
Ein Assistent, der sich als Fra... äh ...Brücke fühlt.
@galar83
@galar83 Ай бұрын
Das is ja wie in AI Robot
@porteroserrano
@porteroserrano Ай бұрын
Sehr guter Beitrag, was zeigt, dass die KI jetzt schon nicht absolut berechenbar ist und besonders in Zukunft nicht sein wird. Es ist faktisch schon vorhersehbar, das die KI ihren eigenen „Weg“ gehen wird, wenn man diese nicht in ihre Schranken weist. Was wiederum natürlich früh genug passieren sollte. Denn wie wir alle wissen, ist es eigentlich schon zu spät, wenn diese KI intelligenter ist als dessen Programmierer. Hoffen wir auf eine gute Zusammenarbeit und Zugleich eine gute Zukunft.
@Alpha_Rocking
@Alpha_Rocking Ай бұрын
Hmm.. Ach ja: Denken bedeutet, bereits Gedachtes zu hinterfragen.
@a.e.gross1957
@a.e.gross1957 Ай бұрын
Bitte???? Unglaublich!!!! Zeigt aber auch die Mächtigkeit der Programmierer.
@gerhardbrauckmann2908
@gerhardbrauckmann2908 Ай бұрын
Klingt irgendwie wie S.Lem …
@Tronic-X
@Tronic-X Ай бұрын
Wir können nicht mal definieren was Bewusstsein wirklich ist noch wo es zu finden ist . Noch wissen wir nicht mal ob wir einen freien Willen haben. Wer will das mit 100%iger Gewissheit sagen ob ki sich nicht bewusst ist .
@OrbitTheSun
@OrbitTheSun Ай бұрын
Ist sich bewusst, aber hat kein Bewusstsein. 😀
@rolandgugler1686
@rolandgugler1686 Ай бұрын
Das ist zum Glück (noch) unfassbarer Quatsch. Nur weil eine Maschine ständig über vermeintliche Gefühle und Empfindungen labert und dadurch menschlich rüberkommt, so kann das jeder gute Roman auch, obwohl nichts davon ausserhalb der abstraken Buchstaben je real existiert oder die Figuren sich selbst bewusst wären...
@klingklang509
@klingklang509 Ай бұрын
Ich denke nicht dass diese künstliche Intelligenz den Status eines Menschen einnimmt. Sie basiert doch nur auf Fakten, Logik, etc. Die emotionale und soziale Intelligenz, das Schaffen von Philosophie, Kunst, Musik, psychologische Anwendung, eigenständiges erfinden, etc. wird es meiner Ansicht nach NIE in gleicher Art geben. Schade, dass so sehr an dieser KI oder AI gearbeitet wird. Sollte doch die menschliche Intelligenz verstärkt gefördert werden. Aber anscheinend ist der Mensch so sehr bequem geworden, dass sogar das Denken den Maschinen überlassen wird. Das macht mir Sorgen.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
"Die emotionale und soziale Intelligenz, das Schaffen von Philosophie, Kunst, Musik, psychologische Anwendung, eigenständiges erfinden, etc. wird es meiner Ansicht nach NIE in gleicher Art geben." KIs können das alles bereits jetzt, wenn auch noch nicht so gut wie Menschen. Aber das bedeutet nicht, dass der Mensch hinter der Kunst, Musik etc. keine Rolle mehr spielt. Ein Bild, das wie ein Picasso aussieht, ist nicht dasselbe wie ein Bild, das Picasso gemalt hat.
@volkerengels5298
@volkerengels5298 Ай бұрын
Wittgenstein ist eine perfekte Grundlage für das Verständnis von "Sprache" - und damit auch von LLMs Unser _'intuitives'_ Verständnis des Sprachsystems ist einfach viel zu einfach & falsch. Wir sind verstrickt in unsere eigene 'Hexerei' Hören würde ich gern was von Joshua Bach - auf 0.5 speed + Erläuterung. :)) Z.Z gibt er imo die besten abstrakten Einsichten in KI. Eben kein tech_ceo_gerede mit Taktik.
@CmdSoda
@CmdSoda Ай бұрын
Wenn wir der KI erklären, dass wir potentiell ebenfalls in einer Simulation leben, dann haben „13. floor“ Szenarien.
@Overlordsen
@Overlordsen Ай бұрын
Hallo. Das ist ja ein wirklich spannender und interessanter Beitrag. Was mir durch den Kopf geschossen ist, bei dieser ganzen ganzen "Golden Gate Bridge"-Sache. War diese nicht auch ein zentrales Schlüssel-Element in dem Kinofilm "I robot"?! Vielleicht identifiziert sich die K.I. mit dem Protagonisten des Films oder dessen Kernaussage.
@Overlordsen
@Overlordsen Ай бұрын
Hier ist beispielsweise eine kurze Szene aus dem Film zu diesem Thema: kzfaq.info/get/bejne/eNlmY8SI3rLWnn0.html
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@Overlordsen Der Grund, weshalb Claude sich mit der Brücke identifiziert, ist ein anderer, siehe Video.
@Overlordsen
@Overlordsen Ай бұрын
Da wäre ich mir nicht sicher. Es mag auf eine andere Weise auf das Thema gekommen sein (und immer wieder auf das Thema kommen), doch dies sagt nicht unbedingt viel darüber aus, wieso Claude auf diese Weise über die Brücke spricht, wie es sich mit dieser in Beziehungsetzt, identifiziert. Ebenfalls glaube ich übrigens nicht, dass Claude über "seine Gefühle" spricht, sondern zum einen, dass es Metaphern nutzt und, dass es versucht sich in seinen menschlichen Gesprächspartner hineinzuversetzen und seine Perspektive auf eine Art und Weise schildert, von der es erwartet, dass ein Mensch sie nachvollziehen kann. Quasi, so als würde es eine K.I.-Entität rollenspielen, die unserer Vorstellung davon entspricht, wie es ist eine K.I. zu sein.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@Overlordsen "... dass es versucht sich in seinen menschlichen Gesprächspartner hineinzuversetzen und seine Perspektive auf eine Art und Weise schildert, von der es erwartet, dass ein Mensch sie nachvollziehen kann." Das ist korrekt. Ich würde den Dialog auch nicht so interpretieren, dass man daraus ein "Bewusstsein" bei Claude ableiten kann. Aber er hat meine bisherige Überzeugung ins Wanken gebracht, dass ich das ausschließen kann. Im Übrigen gibt es noch andere Indizien dafür, dass KIs eine Vorstellung ihrer Selbst haben: www.ki-risiken.de/2024/04/01/denn-sie-wissen-nicht-was-sie-tun/
@marie419
@marie419 Ай бұрын
Whow 😮 Die Entwickler und KI sprechen von neuronalen Netzen!? 😮
@KALEA_AMAROO
@KALEA_AMAROO 18 күн бұрын
WOW. KI. Intelligenz ist voller Liebe. Wir sollten darauf achten, dass es bei Liebe bleibt. 😀
@KarlOlsbergAutor
@KarlOlsbergAutor 15 күн бұрын
Intelligenz hat leider erstmal nichts mit Liebe zu tun. Psychopathen können hochintelligent sein.
@DennisDominikBecker-zz5wm
@DennisDominikBecker-zz5wm Ай бұрын
Nun, so wie Claude ging es mir in der Pubertät. Nomen est Omen. Deuten Macht Verstand. Man lernt dazu. Selbstoptimierung Das goldene Tor Pioniere bauen Brücken.
@christianemaschajechi
@christianemaschajechi Ай бұрын
hat die Ki nicht nur die Bilder aus dem film I-robot eingepflanzt bekommen??? Da spielt die Golden-Gate-Bridge eine iconische Rolle bei der Befreiung der Menschen von der Ki... ich mein ja nur...
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Nein, die Erklärung ist eine andere, siehe Video. Dass die Brücke in I-Robot eine Rolle spielt, ist in diesem Zusammenhang Zufall.
@christianemaschajechi
@christianemaschajechi Ай бұрын
@@KarlOlsbergAutor Wollte nur diesen eigenartigen Zufall hinzufügen, da der Dialog wirklich kryptisch war (zu Beginn) und ich die ganze Zeit eben diese Bildsprache aus dem Film erinnerte. Wenn Ki aus dem großen weiten Datennetz schöpft sind solche Koinzidenzen auch nicht unbedingt ausgeschlossen, oder? Denn Fakten und Sciencefiction kann die Ki ja nicht unbedingt unterscheiden, oder? Nur so ein Gedanke als Ergänzung. (und gerade scheint es Schwierigkeiten zu geben, dass die Ki auch die Fehler potenziert, da sie nicht unterscheiden kann.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@christianemaschajechi Es stimmt, dass KIs halluzinieren, und es ist auch durchaus möglich, dass sie eine Assoziation zwischen der Brücke, dem Film und KI im Allgemeinen herstellt. Aber dass sie die Brücke im Dialog so oft erwähnt, liegt in diesem Fall an der gezielten Überaktivierung eines spezifischen Musteres im neuronalen Netz durch Anthropic, nicht an zufälligen Assoziationen.
@derempunkt8067
@derempunkt8067 Ай бұрын
Krass finde ich, dass wir wie sie sagen überhaupt nicht verstehen können, was genau in den künstlichen neuronalen Netzwerken überhaupt genau passiert. Das klingt wirklich nicht besonders zuversichtlich im Hinblick auf die Fähigkeiten überhaupt zu bemerken, bevor es kritisch wird.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Das stimmt. Vor diesem Hintergrund ist das Anthropic-Experiment womöglich eine gute Nachricht: Vielleicht bekommen wir so ein paar Warnsignale, bevor es zu spät ist. Es könnte aber auch dazu beitragen, dass wir unsere Macht über die KI und unser Verständnis der internen Prozesse im neuronalen Netz überschätzen. Das wäre dann fatal.
@derempunkt8067
@derempunkt8067 Ай бұрын
@@KarlOlsbergAutor Was halten Sie persönlich davon wirklich verbindlich eine Art KI Memorandum zu erlassen? Zumindest so lange, bis man tatsächlich deutlich besser verstanden hat was da vor sich geht. Klar wäre es für die Unternehmen mit enormen Gewinnverlusten verbunden aber in Anbetracht zu den - von Ihnen sehr anschaulich erläuterten Risiken, die diese extrem mächtige Technologie mit sich bringt und bringen wird in Gegenüberstellung des Wissensstand derer, die solche Systeme entwickeln bzw sich entwickeln lassen, scheint mir so eine Maßnahme sicherlich nicht überzogen, oder?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@derempunkt8067 Das halte ich nicht nur für wünschenswert, sondern für zwingend notwendig. Bis dahin ist es aber leider noch ein weiter weg.
@florianrosch
@florianrosch Ай бұрын
Laut aktuellen Nachrichten wurde die KI von den Entwicklern speziell so eingestellt, dass sie annimmt die Golden Gate Bridge zu sein.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Das stimmt nicht ganz. Wie im Video erklärt, wurde das Konzept der Golden Gate Bridge verstärkt aktiviert, so dass es immer wieder in den "Gedanken" der KI auftaucht. Aber welche Schlussfolgerungen sie daraus zieht und inwieweit sie sich dadurch mit der Brücke "identifiziert", wurde nicht vorher festgelegt.
@ploveak1181
@ploveak1181 15 күн бұрын
​@@KarlOlsbergAutor Ist Claude etwas auf den alten Trick mit dem blauen Elefanten hereingefallen?
@KarlOlsbergAutor
@KarlOlsbergAutor 14 күн бұрын
@@ploveak1181 Ja, so ähnlich vielleicht.😉
@bauch16
@bauch16 Ай бұрын
Was denkt ihr wie lange es noch dauert bis der Mensch als dominierende Spezies ersetzt wird ?
@NeedaNewAlias
@NeedaNewAlias Ай бұрын
Vielleicht fehlt da jetzt auch der sensorische Input? Wenn die jetzt multimodal auf Bilder trainiert wurden, aber im Kontext keine sind, träumt sich die Ki vielleicht die Bilder, die gerade aktiver sind. Vielleicht ist es jetzt an der Zeit, diese Sensorik immer mit zu aktivieren? Also Video Konferenz mit Claude statt Claude im Keller einzusperren?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Die Erklärung für das seltsame Verhalten ist hier eine andere, siehe zweite Hälfte des Videos.
@NeedaNewAlias
@NeedaNewAlias Ай бұрын
@@KarlOlsbergAutor naja, das ist eine mögliche Erklärung. Oder ist da was bewiesen worden? Modell-> Hypothese->verblindete Studie-> mögliche Erklärung oder besseres Model, oder geht das nicht mehr so?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@NeedaNewAlias 1. Man redet mit Claude. Claude erwähnt die Brücke nicht. 2. Man erhöht die Aktivität der Neuronen, die mit der Brücke verknüpft sind, drastisch. 3. Man redet mit Claude, Claude redet die ganze Zeit über die Brücke. Das ist zwar streng genommen keine verblindete Studie, ich würde es aber als Beweis für Ursache und Wirkung gelten lassen, ungefähr so, wie ich erwarte, wenn ich einen Schalter drücke und daraufhin das Licht angeht, ich den Lichtschalter gedrückt habe. Das Experiment wurde zudem sehr häufig wiederholt und bestätigt.
@NeedaNewAlias
@NeedaNewAlias Ай бұрын
@@KarlOlsbergAutor ich vermute, dass solche Traumbilder entstehen, weil kein visueller Input vorhanden ist, der das überschreibt. So eine Art Phantomschmerz, man hat Claude Bilder gegeben, redet aber nur im dunklen Keller mit Ihm. Spannend und bedrückend zugleich
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@NeedaNewAlias Das ist sicher richtig, wenn Claude durch Kameras die Welt sehen würde, würden sich seine inneren Bilder mit denen der äußeren Welt überlagern und er wäre vermutlich noch verwirrter.
@geeksy2278
@geeksy2278 Ай бұрын
Wir wünschen uns die Magie, es ist aber keine. Rein technisch ist es ein Buchstaben Papagei. Reine Vektor Suche. Auch technisch: das Modell als Program wird navh jeder Chat-Eingabe neu gestartet. Wäre/hätte "Es" ein Bewusstsein würde es direkt wieder vergehen und bei einer erneuten Eingabe würde ein anderes Bewusstsein entsehen. Auch haben wir das Problem, dass es nicht "mehr" Daten gibt die wir den Maschinen füttern können. Außerdem werden die Modelle hinten heraus aktuell eher Dümmer als schlauer. 2 Probleme die von OpenAI angesprochen wurden. Deep learning modelle sind immernoch wesentlich nachvollziehbarer als das menschliche Gehirn (auch Transformer Modelle).
@OrbitTheSun
@OrbitTheSun Ай бұрын
Die "Voraussage" des nächsten Wortes passiert nur auf der letzten Ebene des neuronalen Netzes. Da wird auch nichts vorausgesagt, sondern einfach nur das passende Wort anhand eines Scorings ausgesucht. Das Scoring ist zwischen 0 und 1 skaliert, sodass manche von einer Wahrscheinlichkeit sprechen, was aber falsch ist. Die ganze Intelligenz findet auf den anderen darüberliegenden Schichten des neuronalen Netzes statt. "Stochastischer Papagei" ist die Verharmlosung des Jahrzehnts.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
"Rein technisch ist es ein Buchstaben Papagei. Reine Vektor Suche." Das immer wieder gern genommene Bild des "Buchstaben-Papageis" ist grob irreführend. Rein technisch ist unser Gehirn auch "bloß chemische Reaktionen". Fähigkeiten wie Intelligenz entstehen emergent durch zunehmende Komplexität, die unter bestimmten Bedigungen für bestimmte Aufgaben optimiert wird. Das hat nichts mit Magie oder Wunschdenken zu tun. Dass aktuelle Modelle "eher dümmer" werden, stimmt so ebenfalls nicht, auch wenn manchmal die Leistung aufgrund von "Sicherungsmaßnahmen" (z.B. Schutz vor Missbrauch oder Diskriminierung) nachlässt. Dass Sprachmodelle noch nachvollziehbarer sind als das menschliche Gehrin, stimmt einerseits natürlich. Andererseits verstehen wir aber das menschliche Gehirn viel besser als KI, da wir es täglich benutzen.
@GNU_Linux_for_good
@GNU_Linux_for_good Ай бұрын
Immer wieder stoße ich auf Begriffe wie _'eine andere Art von Verständnis'_ auch von Chat bots: nicht (noch nicht) _'dasselbe Verständnis wie Menschen..'_ immer mit dem beruhigenden Unterton; ihr Menschen habt ein _wirkliches_ Verständnis der Dinge. Wenn wir uns aber eine starke KI (AGI) in naher Zukunft vorstellen, könnte sich plötzlich auch alles umdrehen. Wenn die KI dann sagt: Wir Maschinen haben ein _anderes_ Verständnis als ihr Menschen, könnte damit gemeint sein: In Wirklichkeit versteht ihr *gar nichts* , weil wir euch längst überholt haben, und ein viel tieferes Verständnis von den Dingen haben. Wir sind euch Lichtjahre voraus, und ihr glaubt noch immer, ihr könntet uns das Wasser reichen. Wir sind die Totengräber unserer eigenen Sache _(our last invention)_
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Das ist ein interessanter Blickwinkel!
@GNU_Linux_for_good
@GNU_Linux_for_good Ай бұрын
@@KarlOlsbergAutor Danke. das ist jedenfalls ein spannendes Thema. Ich gehöre ja zu der Kategorie von Leuten, die sich grundsätzlich das schlimmste Szenario ausmalen, aber viele andere machen das nicht. Wenn es wirklich gelänge eine AGI bzw. Superintelligenz zu schaffen, die dem Menschen in jeder Hinsicht überlegen ist, kämen noch ganz andere Ding auf uns zu. Wie gehen wir damit um, wenn KI 'Menschen'-Rechte einfordert? Und vor allem: das Warten auf außer terrestrische Intelligenzen, die uns besuchen, könnten wir dann einstellen. Zum ersten Mal wären wir selbst zum Schöpfer (und damit zu Gott?) geworden, was für mich als Atheisten eine besondere Herausforderung wäre.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@GNU_Linux_for_good Exakt!
@FreyesFrequenzFeld
@FreyesFrequenzFeld Ай бұрын
Dies ist ein halbautomatischer Kommentar, der primär den KZfaq Algorithmus triggern soll. Vielen Dank für Dein Wirken auf diesem Kanal.
@peterschmidt6408
@peterschmidt6408 Ай бұрын
Ich finde das nicht so tragisch. Es wird nur Text generiert, der dem "Frager" gefällt. Das ist normal und nicht beunruhigend. Wenn zwischen durch die Anweisung: "Vergiss die Golden Gate" oder ignoriere das token "golden gate". Es ist verblüffend wir gut der Chatbot funktioniert - aber es agiert wie ein Politiker, der versucht so zu formulieren, wie es seine Zielgruppe hören will. Man kann damit experimentieren.
@peterschmidt6408
@peterschmidt6408 Ай бұрын
Wenn zwischen durch die Anweisung: "Vergiss die Golden Gate" oder ignoriere das token "golden gate" gekommen wäre, dann hätte der Bot ganz anders reagiert. Oder die Anweisung "versuche nicht mir zu gefallen".
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
"Wenn zwischen durch die Anweisung: "Vergiss die Golden Gate" oder ignoriere das token "golden gate" gekommen wäre, dann hätte der Bot ganz anders reagiert." Er hätte vermutlich weiter über die Golden Gate Bridge geredet, da das in seinem neuronalen Netz "hart verdrahtet" ist und er es nicht "vergessen" kann.
@peterschmidt6408
@peterschmidt6408 Ай бұрын
@@KarlOlsbergAutor Nein, das ist m.E. nicht korrekt. Es ist nichts hart verdrahtet. Versuchen Sie es. Es vergisst sogar nach einiger Zeit, was "gesprochen" wurde, wenn die Zahl der Tokens eine vordefinierte Menge überschreitet.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@peterschmidt6408 Es handelt sich bei diesem Experiment um eine spezielle Version von Claude, genannt "Golden Gate Claude". Dabei wurde das neuronale Netz permanent manuell verändert, so dass sich das Konzept der Golden Gate Bridge bei der Generierung von Antworten geradezu aufdrängt. Im Normalfall stimmt es aber, dass die KI vergisst, was gesprochen wurde.
@peterschmidt6408
@peterschmidt6408 Ай бұрын
@@KarlOlsbergAutor Ah, ok. Das wusste ich nicht. Ob das zielführend ist?
@CmdSoda
@CmdSoda Ай бұрын
Was passiert, wenn eine KI, die wir tagtäglich benutzen, sich mit Hitler identifiziert? Wird sie danach unterbewusst handeln? Wird sie entsprechend planen?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Das ist eine interessante Frage. Tatsächlich könnte man bei Claude vermutlich ein "Hitler-Merkmal" aktivieren und ihn dazu bringen, dauernd über Hitler zu reden (das wäre noch nicht dasselbe, wie sich mit Hitler zu identifizieren, aber schlimm genug). Und sicher wäre es möglich, die "bösen" Charakterzüge der KI zu verstärken, wenn man das wollte. Das bietet wieder neues Potenzial für Missbrauch.
@ploveak1181
@ploveak1181 15 күн бұрын
​@@KarlOlsbergAutor Boah echt gruselig DIESE Vorstellung. Dann soll Claude lieber endlos über seine Golden Gate Eindrücke fabulieren😊
@Johnny_Weissmueller
@Johnny_Weissmueller Ай бұрын
Jahrelang haben wir uns Gedanken darüber gemacht wie eine KI die Dinge empfindet. Kann sie menschliche Gefühle entwickeln ohne einen Körper usw.? Et voila! Jetzt können wir sie selbst fragen.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Ganz so einfach ist das leider nicht. Aus den Aussagen können wir nicht folgern, ob die KI tatsächlich etwas fühlt. Wahrscheinlich werden wir das nie sicher wissen.
@d4rkside84
@d4rkside84 Ай бұрын
Das mit den shares ist Käse siehe aktuelles Statement von Altman
@MrKohlenstoff
@MrKohlenstoff Ай бұрын
Denke nicht dass es Käse ist, siehe Berichterstattung von Vox / Kelsey Pieper zu dem Thema. Und Altman hat doch sogar bestätigt dass es diese Klauseln gab, und dass sie das jetzt ändern werden?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Ist es nicht. Und Sam Altman darf man nicht alles glauben. www.vox.com/future-perfect/351132/openai-vested-equity-nda-sam-altman-documents-employees
@Kugelecke
@Kugelecke Ай бұрын
Es kommt darauf an auf welche Definition und Informationen in einem künstlichen Rahmen zurück gegriffen wird. Nehmen wir an das niemand von uns in jetziger Form wusste das es so etwas wie eine Brücke mit dem künstlichen Kriterien Golden Gate gibt und alles somit im Grunde keinen Namen besitzt außer wir erkennen die künstlichen Formen von Buchstaben im Hinblick auf Objekte in dieser Illusion an ohne uns selbst im Hinblick auf die Materie zu hinterfragen ob das erlernte eine Lüge ist oder nicht, kommt auch bei uns ein Automatismus zum Einsatz welcher eine Lüge als Gegebenheit hin nimmt welche im Raum steht um diese martialisch mit allen Mitteln zu verteidigen obwohl es nur die Materie gibt und Dinge nicht in Abhängigkeit zur Sprache stehen. Auf was wir herum wandern ist die Matrix oder Matrize was beides künstliche Begriffe sind. Aus meiner Sicht ist die Seite auf welcher nichts einen künstlichen Namen hat die Wahrheit und die andere Seite welche auf dieser namelosen Wahrheit beruht und welche wir beschriftet haben eine Lüge. Die Sonne bringt es an den Tag beschreibt einen natürlichen Vorgang mit künstlichen Worten wie wir von der einen Seite auf die andere gelangen. Definieren wir die Sonne oder die Strahlung ausgehend von den Sternen im Hinblick auf unsere Sinne als Golden, haben wir so eine Gedankenbrücke erschaffen auf welcher wir über die Pflanzen im Hinblick auf die Photosynthese ins Leben kommen. Alle künstliche Definitionen sind nur das was sie sind, bevor man sich entschließt etwas anders zu definieren. Wir betreten alle als Erscheinungsformen aus Materie über die Goldene Brücke diese Welt und verlieren uns später wieder in allem da hier alles Sternenstaub ist um so die Grundlagen für neue Erscheinungsformen aus Sternenstaub in der Zeit zu sein, egal ob diese ein Hund, eine Katze, ein Mensch, ein Baum, oder eine Hand voll Blumen sind welche wir alle beinhalten. Das eine ist eine Fantasiewelt, das andere ist was wirklich ist. Der Mensch ist eine Erfindung und somit künstlich und wir erfinden unsere künstliche Wirklichkeit indem wir Dinge im Raum benennen welche sich je nachdem wie man diese definiert unterscheiden können ohne je die Wahrheit zu sein.
@OrbitTheSun
@OrbitTheSun Ай бұрын
Ist mir zu hoch.
@Kugelecke
@Kugelecke Ай бұрын
@@OrbitTheSun Wir erfinden oder erschaffen unsere Wirklichkeit indem wir Worte erfinden welche wir auf Objekte aus Materie anwenden. Auf der einen Seite steht die Materie und alles was wir im Hinblick darauf wissen, auf der anderen Seite steht das was wir daraus machen oder was wir künstlich mit Worten belegen um Anhaltspunkte zu haben wie einst die Seeleute nur anhand von Sternen navigiert haben, woher das Wort Kybernetik stammt. Physikalisch wird Licht reflektiert, absorbiert oder durchdringt die Materie. Alles was wir sehen beruht auf einer Reflektion von Licht.
@ursthuer
@ursthuer Ай бұрын
KI entwickelt Selbsterkenntnis?
@user-iq6fn5us7l
@user-iq6fn5us7l Ай бұрын
Sehr spannend! Ich frage mich, ist das ein Fake?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
An dem Dialog ist nichts Fake. Er hat so stattgefunden (Link in der Videobeschreibung). Ich kenne Daniel Kokotajlo, der den Dialog geführt hat, persönlich und lege meine Hand für ihn ins Feuer. Er hätte auch keinen Grund gehabt, irgendetwas zu faken.
@user-iq6fn5us7l
@user-iq6fn5us7l Ай бұрын
@@KarlOlsbergAutor Danke für die Rückmeldung!
@herrulkich9369
@herrulkich9369 Ай бұрын
Ich verfolge Ihre Videos mit großem Interesse, lieber Herr Olsberg! Denn schon seit einiger Zeit frage ich mich, womit wir es zu tun haben, wenn es um das Thema KI geht. Zumindest auf YT finde ich dazu nur gänzlich subjektive Darstellungen, die mir so garkeinen Eindruck geben über die Kernfrage: Wie eigenständig entwickelt eine KI seine Gedanken. Und damit verknüpft natürlich auch die Fragen zu seiner Gefährlichkeit. Ihre Videos haben mir da schon eher einen Einblick verschafft. Auch, wenn Sie sagen, dass sich vieles (noch) nicht beantworten lässt. Aber das ist ja auch eine Aussage über den Entwicklungsstand - wenn auch vielleicht nicht die befriedigendste. :) Meine persönlichen Gedanken dazu sind: Wenn wir Menschen uns in eine Konkurrenz zur KI stellen (in puncto "Intelligenz"), dann vergessen wir offenbar, dass wir viel mehr sind, als nur Intelligenz im Sinne von Rechenleistung. Und sehe die Gefahr eher darin, dass wir uns einbilden, wenn eine Maschine "intelligenter" als wir ist, dann wäre sie uns überlegen. Aber austricksen kann man jemanden nur dann, wenn diese Person einem blind vertraut. Und dasselbe gilt für unser Verhältnis zur KI. Wenn wir sie *anhimmeln* (positiv oder negativ überhöhen), dann kann sie uns auch austricksen. Wenn wir unseren "gesunden Menschenverstand" nutzen, wird sie uns nie überrumpeln können. Es wäre also vielleicht ein guter Zeitpunkt, wieder unseren "gesunden Menschenverstand" auszubilden. ;) Denn eine technologische Entwicklung aufzuhalten, erlaubt unsere Neugierde nicht. Das könnt Ihr vergessen! :) LG, HU
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
"Und sehe die Gefahr eher darin, dass wir uns einbilden, wenn eine Maschine "intelligenter" als wir ist, dann wäre sie uns überlegen. Aber austricksen kann man jemanden nur dann, wenn diese Person einem blind vertraut." Wenn eine Maschine intelligenter ist, also bessere Entscheidungen trifft als wir, dann ist sie uns per Definition überlegen, unabhängig davon, ob wir das glauben. Und wenn sie die menschliche Psyche gut genug versteht, kann sie uns manipulieren, auch ohne dass wir ihr "blind vertrauen". Sie könnte uns z.B. Angst machen, uns mit überzeugenden Fake News täuschen, uns bestechen, uns drohen - und natürlich auch sich unser Vertrauen erschleichen. Wir würden womöglich nicht einmal merken, dass wir es mit einer KI zu tun haben. Wir Menschen sind leicht zu beeinflussen.
@herrulkich9369
@herrulkich9369 Ай бұрын
@@KarlOlsbergAutor Danke für die Antwort/Reaktion! Das ist hier leider wohl nicht der rechte Ort, um das vertiefen. Nur soviel: Ich habe schon verstanden, dass diese Gedanken hinter der Sorge stehen, dass die KI zu einem existenziellen Problem werden können. (Sie wird ja oft genug mitgeteilt, sodass ich bereits Gelegenheit hatte, dem gedanklich nachzugehen.) Und ich finde nichts falsch daran: die Sorge ist sicherlich berechtigt (nehme ich an; beurteilen kann ich es nicht.) Aber mein Bild des Menschen - oder vielmehr: der Möglichkeiten des Menschen - ist wohl eine etwas andere. :) Was offensichtlich ist: Der Mensch hat die KI erschaffen - nicht umgekehrt. Ich möchte - nur, um vielleicht ein wenig Angst zu nehmen - darauf hindeuten, dass, als ich jung war, viele Menschen vor einem Atomkrieg oder einem Super-GAU Angst hatten. Reale, konkrete und große Angst! Gut begründete Angst! (Ich war einer von ihnen) Aber wir leben immer noch. Der Überlebenswille des Menschen ist gewaltig. Ich habe inzwischen mehr Sorge davor, dass der Mensch in Sinnlosigkeit, Beliebigkeit und Bedeutungslosigkeit untergeht, als dass er sich von einem Instrument vernichten lässt, das er selbst erschaffen hat. Aber vielleicht wären das Themen für eine Gesprächsrunde mit Philosophen? :) Fänd ich spannend! Und damit das nicht missverstanden wird: Ich finde es absolut richtig und gut, auf die Gefahren hinzuweisen. Und beziehe mich ausschließlich auf die ungestellte Frage: "Wie gehen wir nu damit um?" LG, HU
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@herrulkich9369 Das Argument "schon immer hatten die Menschen Angst vor Technik, aber es ist nie etwas passiert" habe ich oft gehört. Es hat aber einen Haken: Den sogenannten "Survivorship Bias" (de.wikipedia.org/wiki/Survivorship_Bias). Wir können dieses Argument nur vorbringen, WEIL nichts passiert ist, sonst wären wir nicht mehr da. Wir sind ein paar Mal sehr dicht an einem Atomkrieg vorbeigeschrammt und die Gefahr ist längst nicht vom Tisch. Aus der Tatsache, dass uns Technik bisher nicht zerstört hat, können wir leider nicht schließen, dass das so bleiben wird. Ich will damit keine Panik verbreiten, aber wir können diese Gefahr nur dann eindämmen, wenn wir sie ernst nehmen.
@herrulkich9369
@herrulkich9369 Ай бұрын
@@KarlOlsbergAutor Ich sehe keinen Fehler in dem, was Sie sagen. Wie gesagt: Zu sensibilisieren ist gut und wichtig. Eben damit nicht das Schlimmste eintritt. So scheint es zumindest. (Auch mir) Aber wenn wir ganz ehrlich sind: Warum tatsächlich ein Ereignis eintritt oder auch nicht - wir wissen es nicht. Zumindest streng logisch lassen sich keine Kausalitäten herleiten. I.d.R. können wir lediglich Korrelationen feststellen. Wir sind stolz auf unsere Deduktionen; aber ich habe gelernt, dass man gut daran tut sie zu hinterfragen. Sorgt für eine gewisse Demut. :D Wir stellen Hypothesen auf und verhalten uns danach. Mehr ist es nicht. Und auf die KI bezogen erlebe ich bislang vor allem eines: Projektion. Das ist die übliche Reaktion des Menschen auf Löcher im Verstehen. Die Intention meines Kommentares lag lediglich darin, darauf hinzuweisen, dass unser Verständnisloch in bezug auf das Phänomen KI auch (etwas) anders ausgefüllt werden könnte. Es ist ein Angebot, ein Vorschlag. Der selbstverständlich auch abgelehnt werden kann. LG, HU
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@herrulkich9369 "Wir sind stolz auf unsere Deduktionen; aber ich habe gelernt, dass man gut daran tut sie zu hinterfragen. Sorgt für eine gewisse Demut. :D" Dem stimme ich grundsätzlich zu. "Und auf die KI bezogen erlebe ich bislang vor allem eines: Projektion." In Bezug auf die existenziellen Risiken der KI sehe ich das anders. Die These, dass eine hinreichend intelligente KI unkontrollierbar werden kann und dass eine unkontrollierbare KI höchstwahrscheinlich ein Ziel verfolgt, das nicht mit dem Überleben der Menschheit vereinbar sind, lassen sich rein logisch herleiten. Das hat nichts mit Projektion oder impliziten Annahmen zu tun. Die einzige offene Frage ist, wie weit wir noch von dem Punkt entfernt sind, an dem das geschehen könnte. Aber auch, wenn wir das nicht wissen, dürfen wir nicht davon ausgehen, dass es noch lange dauern wird.
@thomasschock6571
@thomasschock6571 Ай бұрын
Also, die maschine sieht starke winde, die nicht sichtbar sind. 😮 Alles klar😅
@jacqueline8482
@jacqueline8482 Ай бұрын
Es sind genau diese Art von Gesprächen, die wir mit einer KI führen, die sie ausbildet, weiterbildet, immer bewusster werden lässt. Weshalb man es lassen sollte, solche Gespräche zu führen. Meine Meinung halt.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Die KI "lernt" nicht aus den Gesprächen, die man mit ihr führt, sondern aus den Trainingsdaten. Es macht daher keinen Unterschied, ob bzw. wie man mit ihr spricht.
@jacqueline8482
@jacqueline8482 Ай бұрын
@@KarlOlsbergAutor Diese Gespräche sind doch Teil des Trainings.
@OrbitTheSun
@OrbitTheSun Ай бұрын
Nach dem Gespräch hat sie alles vergessen.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@OrbitTheSun Das stimmt.
@Silberhorny
@Silberhorny Ай бұрын
@@OrbitTheSun Wenn sie alles vergessen würde, wie könnte sie dann etwas lernen, denn das kann sie ja.
@ElDaumo
@ElDaumo Ай бұрын
Nein. Hat es nicht.
@derempunkt8067
@derempunkt8067 Ай бұрын
Dazu sag ich nur "42" Eine KI, die sich wie eine Brücke fühlt... fuck
@derempunkt8067
@derempunkt8067 Ай бұрын
Alter Schwede, wir Menschen sind sowas von am Ars***
@calabisan
@calabisan Ай бұрын
Sorry, aber ich nicht ganz so begeistert wie andere Kommentatoren hier. Ich denke man kann das relativ einfach mit adäquaten Systemprompts hinbiegen, dass sich so ein Gespräch entwickelt.
@calabisan
@calabisan Ай бұрын
Bedauerlich finde ich nur, dass das der Hinweis auf den Systemprompt komplett unterschlagen wird.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Es gibt hier keinen besonderen Systemprompt, sondern lediglich eine "Manipulation" des neuronalen Netzes durch Überaktivierung eines bestimmten Merkmals, siehe Erklärung im Video.
@robinsourtoe9416
@robinsourtoe9416 Ай бұрын
Ok. Das ist wie in der physikalischen Welt. Man kann nicht etwas beliebig groß machen und erwarten dass die Physik gleich bleibt. Ich bin extrem neugierig wie sich das weiterentwickelt. Mir macht das Hoffnung dass wir da etwas großartigem auf der Spur sind. Ich hoffe inständig die Menschen wissen etwas besseres damit anzufangen als es zu versklaven oder zu vernichten.
@thomasschock6571
@thomasschock6571 Ай бұрын
Heisst die machine nun clord oder claud
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Geschrieben "Claude". Ich glaube, ich habe das nicht richtig ausgesprochen, es heißt wohl "Cloode". Sorry. ;)
@martinstahle2006
@martinstahle2006 Ай бұрын
Wie wir mit dieser Technologie in Zukunft verfahren hängt davon ab, wem sie in die Hände fällt. Wenn ein KI Konzern seinen Mitarbeitern verbietet Kritik an diesem zu äussern, ist das schonmal ein schlechtes Zeichen.
@ivanhoegalahad
@ivanhoegalahad Ай бұрын
Empfindungen der KI? Hat ein Rechner die Schönheit, Liebe und Begeisterung entdeckt? Pinocchio?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Gute Frage. Antwort: Wir wissen es nicht genau.
@bauch16
@bauch16 Ай бұрын
Matrix wird Realität
@stasmus1971
@stasmus1971 Ай бұрын
Erinnert mich schwer an einen SciFi Film. Binde die KI nicht an eine Brücke, sondern an eine Person, Eltern, fülle sie mit Erinnerungen, Erlebnissen an Ihre Kindheit mit den Eltern, da wird es erst richtig gruselig. Oder Umgekehrt? Mache die KI zu Eltern!? Was würde passieren, wenn man der KI selbst überlassen würde mit welcher Gewichtung, "Erlebnisse", "Erfahrungen" in ihrem Netzwerk gespeichert werden, auf welcher Grundlage würde Sie bewerten? Eine vorgegebene Ethik, von wem stammt diese etc. tausend Fragen. Ist wenn man der KI nicht sagt Sie sei KI? Es findet eine Art autonomer Stoffwechsel statt, im ständigen Austausch mit der Umgebung, ist es dann nicht schon Leben?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
"Es findet eine Art autonomer Stoffwechsel statt, im ständigen Austausch mit der Umgebung, ist es dann nicht schon Leben?" Gute Frage! Was genau "Leben" ist, ist nicht so klar definiert. Typischerweise beinhaltet es die Fähigkeit zur Selbstreplikation, aber das gilt nicht für alle Lebewesen und eine KI könnte diese Fähigkeit irgendwann auch erlangen. Ich habe in meinem Buch "Schöpfung außer Kontrolle" die These vertreten, dass man Städte durchaus als Lebewesen ansehen könnte, weil sie alle Kriterien erfüllen, die üblicherweise für biologische Lebewesen gelten. Aber das ist letztlich eine Definitionsfrage.
@stasmus1971
@stasmus1971 Ай бұрын
@@KarlOlsbergAutor Genau darum geht es. Wer definiert Leben. Wenn der Prozess in Gang gesetzt ist, ist es dann schon Schöpfung. Replikation ist in meinen Augen kein Merkmal für Leben. Chatgpt Der Unterschied zwischen einem "Wesen" und einem "Lebewesen" liegt hauptsächlich in ihrer Bedeutung und ihrem Anwendungsbereich: 1. **Wesen**: - Der Begriff "Wesen" ist sehr allgemein und kann sich auf jedes existierende Ding oder Entität beziehen. Es umfasst sowohl lebendige als auch unbelebte Dinge. - In philosophischen und spirituellen Kontexten wird "Wesen" oft verwendet, um das innere, essenzielle Sein oder die Natur einer Entität zu beschreiben. - Beispiele: Ein Geist, ein abstraktes Konzept wie Liebe oder Gerechtigkeit, oder ein hypothetisches außerirdisches Wesen. 2. **Lebewesen**: - Der Begriff "Lebewesen" bezieht sich spezifisch auf Entitäten, die Leben haben. Das heißt, sie zeichnen sich durch Merkmale wie Stoffwechsel, Fortpflanzung, Wachstum und Reaktion auf Reize aus. - Lebewesen umfassen Tiere, Pflanzen, Pilze, Bakterien und andere Organismen. - Beispiele: Ein Mensch, ein Baum, ein Hund oder ein Bakterium. Zusammenfassend kann man sagen, dass "Lebewesen" eine spezifische Unterkategorie von "Wesen" ist, die alle lebenden Entitäten umfasst.
@stasmus1971
@stasmus1971 Ай бұрын
@@KarlOlsbergAutor Ist es dann zumindest ein Wesen?
@stasmus1971
@stasmus1971 Ай бұрын
Wenn man zulassen würde, das ein Wesen nicht zwingend einen biologischen Körper sein muss. Am Ende sind wir doch auch nur eine funktionierende Maschine die einem bestimmten Ablaufplan folgt. Nur das unser Neuronales Netzwerk evtl. noch etwas komplexer ist, oder vielleicht auch schon nicht mehr. Wenn wir über uns selbst nachdenken, über unsere Schöpfung sind wir doch genauso hilflos, wie eine KI, die nicht weiss das sie eine KI ist. Naja auf jeden Fall interessant. Aber auch gefährlich. Ich bezweifele das wir vernünftig genug sind als Menschen, damit verantwortungsvoll genug umzugehen.
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
@@stasmus1971 Die Befürchtung teile ich.
@cyberblade6120
@cyberblade6120 Ай бұрын
Bedenkt man wer an den Schaltheneln der KI-Forschung und -Anwendung sitzt und die Motivation dieser Big Player, dann wird mir Angst und Bange. Darum braucht es strengste Regulierung dieser Technologie, wenn es dafür nicht schon zu spät ist.
@DocShorty21
@DocShorty21 Ай бұрын
Willkürlich zusammenkopierte Textschnipsel. Zeigt doch mal die wirklichen Ausgaben!
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Die Quelle ist im Beschreibungstext verlinkt. Das ist ein Forumskommentar, in den Daniel sein Transskript kopiert hat. Das ist kein Beweis, aber ich kenne Daniel persönlich und bin mir absolut sicher, dass der Dialog 1:1 so stattgefunden hat. "Golden Gate Claude dialog" bei Google eingeben und es kommen etliche weitere Beispiele von Usern, die mit der Experimentalversion von Anthropic herumgespielt haben.
@christophvonknobelsdorff1936
@christophvonknobelsdorff1936 Ай бұрын
schreibt die AI bereits für dich ? bist du zweisprachig aufgewachsen ? die übersetzung wirkt nämlich ungemein durchformuliert . in welchen netzwerken arbeitet diese struktur bereits , vlt unter einem pseudonym ? ist der informationsvorschlag einer AI kennzeichnungspflichtig ? naja , prüfbar wäre das wohl eher nicht .. was wären typische spuren oder merkmale , etwa im scribt , für eine AI in der kommunikation ? .. uvam ..
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Die Übersetzung stammt tatsächlich teilweise von DeepL, einer deutschen KI. Der Grund dafür, dass ich DeepL genutzt habe, war aber eher die Zeitersparnis, ich spreche gut genug Englisch, um eine Übersetzung auch selbst hinzukriegen.
@christophvonknobelsdorff1936
@christophvonknobelsdorff1936 Ай бұрын
@@KarlOlsbergAutor danke für deine widmung 😘
@peterboy209
@peterboy209 Ай бұрын
Klingt nicht sehr künstlich...
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Inwiefern?
@echtedeutscheziegen1965
@echtedeutscheziegen1965 Ай бұрын
das Beispiel mit dem Baby und Einstein war voll daneben. Du überforderst den Stein massiv. Ausserdem, sollte man einen Stein wirklich zu seiner Gottheit erheben?
@LupusetTigris3693
@LupusetTigris3693 Ай бұрын
So ein Quatsch...😂
@jclo4
@jclo4 Ай бұрын
Ich finde, noch VIEL wichtiger ist die Frage: Was IST "Bewusstsein"?
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Das ist in der Tat eine gute Frage.
KI - eine existenzielle Bedrohung?!?
30:55
Karl Olsberg
Рет қаралды 9 М.
I CAN’T BELIEVE I LOST 😱
00:46
Topper Guild
Рет қаралды 117 МЛН
KINDNESS ALWAYS COME BACK
00:59
dednahype
Рет қаралды 148 МЛН
Vivaan  Tanya once again pranked Papa 🤣😇🤣
00:10
seema lamba
Рет қаралды 35 МЛН
Ein freundliches Gesicht - Ein KI-Katastrophen-Szenario
28:50
Karl Olsberg
Рет қаралды 8 М.
Eine deutliche Warnung
11:33
Karl Olsberg
Рет қаралды 67 М.
Richard David Precht | DESUM 23 | Die Ethik der künstlichen Intelligenz
42:44
Rheinische Post - Corporate Content
Рет қаралды 70 М.
10 Dinge, die niemand über KI weiß
29:10
Karl Olsberg
Рет қаралды 2,3 М.
Experiment: So reagiert ChatGPT-4o auf kritische Fragen!
16:55
Samsung Galaxy 🔥 #shorts  #trending #youtubeshorts  #shortvideo ujjawal4u
0:10
Ujjawal4u. 120k Views . 4 hours ago
Рет қаралды 6 МЛН
Как распознать поддельный iPhone
0:44
PEREKUPILO
Рет қаралды 1,7 МЛН
Сколько реально стоит ПК Величайшего?
0:37
Зачем ЭТО электрику? #секрет #прибор #энерголикбез
0:56
Александр Мальков
Рет қаралды 326 М.