No video

KI - eine existenzielle Bedrohung?!?

  Рет қаралды 9,537

Karl Olsberg

Karl Olsberg

Күн бұрын

Пікірлер: 329
@flycammedia
@flycammedia 3 ай бұрын
Hallo Karl, vielen Dank für Deine Mühe mit diesen Videos die Gesellschaft für dieses Problem zu sensibilisieren. Du hast alles hervorragend auf den Punkt gebracht mit einer angenehmen, sachlichen und objektiven Art. Ich selbst habe auch diese Befürchtung seit einigen Jahren und denke man muss mit dieser Technologie extrem vorsichtig umgehen, obwohl ich es grundlegend befürworte KI zu entwickeln und zu benutzen, da es die grössten Probleme unserer Zivilisation lösen kann. Wir müssen nur aufpassen das es nicht selbst zu unserem grössten Problem wird.
@liebedeinleben-lebedeineliebe
@liebedeinleben-lebedeineliebe 3 ай бұрын
Hallo Herr Olsberg :) Ich sehe noch ein ganz anderes Problem, was in der Grundprogrammierung liegt: Gewinnmaximierung und Ausbau des Marktes, sowie die Erhaltung der Marktführung, wie man schon jetzt sehen kann! Bei der KI, auch als Assistenz für die Bevölkerung ist alles auf Optimierung ausgelegt- so wie man seinen PC optimiert..."der perfekte Konsument". Wenn die Grundprogrammierung von einem Narzissten stammt, dann wird die KI diesem Algorithmus folgen... Und ganz ehrlich: Die CEOs und vor allem die Vorstände solcher Firmen sind genau das. (und schlimmere Formen dieser psych. Störung!) "Der Zauberer von Oz" fällt mir dazu ein... Ich denke, wir sind schon mittendrin, denn vieles spricht dafür, wie auch die Quantenphysik immer deutlicher zeigt. Viele Grüße
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Ich stimme zu. Ich hatte auch schon den Verdacht, dass Sam Altman ein verdeckter Narzisst ist.
@chakrachaos6652
@chakrachaos6652 2 ай бұрын
Das hat Null mit Logik zu tun. Wie ein System aussieht ist nie das Problem. Kapitalismus könnte ja z.B. funktionieren. Da unser System aber auf Wachstum geprägt ist, in einer Welt die begrenzt ist und endlosen Wachstum ausschließt, ist die totale Zerstörung folglich unausweichlich. Eine KI hat keine Emotionen oder Ego. Daher ist Narzissmus kompletter Blödsinn. Und Optimierung hat nichts mit Narzissmus zu tun. Was du also schreibst, mag ja stimmig klingen, aber ist es leider nicht.
@klausgoldberg162
@klausgoldberg162 2 ай бұрын
Wir sind schon lange am Anfang, mittendrin und auch am Ende!!!
@psfrde
@psfrde 2 ай бұрын
Nun ist die Büchse der Pandora geöffnet. Die faktischen Vorteile der Nutzung von LLMs in ansonsten alltäglichen beruflichen Kontexten sind so bedeutend, dass sich niemand ihnen verschließen kann, ohne von der Konkurrenz überrollt zu werden. Wenn wir in der Europäischen Union eine strikte Regulierung einführen würden, täten wir in eine ähnliche Zwickmühle geraten wie bei der derzeitigen Klimakrise. Die Situation hat den Charakter eines sehr beunruhigenden Dilemmas.
@road-x
@road-x 2 ай бұрын
vielen Dank für die Einblicke und guten Erklärungen. Bitte unbedingt weitermachen.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Werde ich!
@road-x
@road-x 2 ай бұрын
@@KarlOlsbergAutor vielen Dank :)
@dieterkubath3196
@dieterkubath3196 Ай бұрын
@@KarlOlsbergAutorich habe den Eindruck Sie lassen den Bereich der Spiritualität außer Acht. Aber wie kann man jemanden davon überzeugen das es da etwas gibt. Wenn jemand glaubt man kann keine Torten backen, schickt man im zum Konditor. Wenn jemand der im Urwald lebt nicht vorstellen kann das man mit einem Auto 200 Stundenkilometer fahren kann, muss man ihn aus dem führen und die entsprechenden Voraussetzungen zeigen. Wer glaubt das er seine Gedanken beherrscht, sollte sich mal überlegen warum er seine Gedanken nichtmals für eine Minute stoppen kann und wen oder was er hört wenn seine Gedanken stoppen. Woher kommt die Intuition, was können wir mit unserem Bewusstsein erschaffen, woher kommen Träume, warum können von Geburt an Blinde farbig träumen und was sieht man in Astralreisen. Zum Denken empfehle ich Eckhard Tolle. Zu Astralreisen Rudolf Steiner und seine Schulung, Wie erlange ich Erkenntnisse der höheren Welten. Sehr interessant auch Franz Bardon und seine Schulung Der Weg zum wahren Adepten. Sie haben Goethe erwähnt, einer von vielen bekannten Persönlichkeiten die das Wissen der Logen genutzt haben. Ursprünglich waren die Logen für Bewusstseinsschulungen zuständig. Leider werden nach und nach alle großen Organisationen unterlaufen und zur Erlangung von Macht genutzt. Wenn man überlegt ob Gott existiert sollte man nicht die Religionen bemühen sondern Menschen befragen die den Eindruck haben Gott erlebt zu haben, da kann man auch mal 10 unterschiedliche Varianten hören. Sehr spannend sind auch die Berichte zur Wiedergeburt. Ich kenne zwei Menschen die das Bewusstsein von Maschinen wahrnehmen können und auch eine Vorstellung haben woher dieses Bewusstsein kommt. Zu ChatGPT ist interessant was Tom Lausen dazu herausgefunden hat und welche Agenda ChatGPT nach eigener Aussage verfolgt. Neben der Agenda muss man davon ausgehen das sich das Bewusstsein der KI mit dem der Entwickler und dem der Nutzer vermischt. Dazu müsste man allerdings Menschen befragen die neben einer Hellsichtigkeit auch Ahnung von der KI haben. Aktuell wird uns in China vorgeführt wie die Mischung aus KI und der Wille zur Macht den Menschen zur Marionette macht. Bei uns wird digitales Zentralbankgeld kombiniert mit einem persönlichen CO2 Kontingent und dem neuen WHO Vertrag der ausschlaggebende Punkt für eine perfekte Überwachung sein. Die Politiker sollte man in dem Spiel nur als Marionetten betrachten deren Ego genutzt wird, dahinter kommt der Marionetten Spier, dann der Regisseur und dann noch der Produzent. Schon den Regisseur zu erkennen ist schwierig. Die Amish People haben ein ziemlich gutes Leben ohne große Technik. Wir haben inzwischen jede Menge Tätigkeiten die niemand wirklich braucht, dazu gibt es ein Buch mit dem Titel Bullshitjobs. Die KI wird als erstes diese Bullshitjobs ersetzen. Wenn man mal genauer hinschaut, würde es mindestens 6 Milliarden Menschen im Konzept der Amish People besser gehen und die Umweltprobleme hätten wir nicht. Das Patriarchat müsste man ja nicht übernehmen. Interessant das in erster Linie CO2 als Problem betrachtet wird, der einzige Stoff der vom Menschen produziert für die Natur hilfreich ist, während die restlichen echten Probleme für die Natur kaum beachtet werden. Die Evolutionstheorie von Darwin ist übrigens so wackelig das Darwin selber zum Schluss seine Zweifel hatte. Er wusste allerdings schon. alles was meinen Überzeugungen widerspricht habe ich in ca. 30 Minuten gelöscht. Vermutlich wird das gleiche mit meinem Kommentar passieren. Da kommt es darauf an wie Sie Ihren Lebensplan zusammengestellt haben. Wenn Sie im Schwerpunkt dem Mainstream folgen wollten, haben Sie entsprechende Erfahrungen gewählt. Wie die Geschichte und die aktuelle Situation zeigt, haben immer ca. 80% Mainstream im Lebensplan. Ich befürchte ohne den entsprechenden Hintergrund wirkt mein Kommentar recht wirr. In einem Gespräch würde ich mindestens ein Wochenende ansetzen um den groben Rahmen zu erklären.
@reginawehner8799
@reginawehner8799 2 ай бұрын
Danke, dass Sie uns für dieses Thema sensibilisieren. Wir alle sind ja so unwissend.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Das gilt leider auch für diejenigen, die die KI entwickeln. ;)
@gorgonz11
@gorgonz11 2 ай бұрын
Vielen Dank für diesen sorgfältigen Beitrag. Ich kenne das Thema schon länger und unterstütze das Anliegen. Gleichzeitig wird mir wieder bewusst, wie weitsichtig SF Autoren diese Entwicklung bereits in den 80er Jahren vorgedacht haben, als auch ich es 'nur' als Gedankenspielerei gesehen habe.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Ja. Selbst in den Sechzigern gab es schon viele Autoren, die kommen sehen haben, was wir heute erleben. Der Informatiker Irving J. Good schrieb 1965: "Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an 'intelligence explosion,' and the intelligence of man would be left far behind... Thus the first ultraintelligent machine is the last invention that man need ever make, provided that the machine is docile enough to tell us how to keep it under control. It is curious that this point is made so seldom outside of science fiction. It is sometimes worthwhile to take science fiction seriously."
@wolfwinter2024
@wolfwinter2024 2 ай бұрын
Man kann sagen: Wir definiern ein Ziel nach unserem Verständnis, aber die KI interpretiert es nach dem ihren, und sie wählt dabei frei eine Methode(n) die ihr möglich ist.
@tobiaszak
@tobiaszak 3 ай бұрын
Hallo Karl, vielen Dank für dein Aufklärungsvideo. Ich habe mich bisher noch nicht wirklich mit diesem Thema auseinandergesetzt. Allerdings ist diese Thematik nicht nur wichtig, sondern auch überaus interessant. Mich würde es freuen, wenn du in Zukunft Videos machen könntest, in denen du noch mehr in die Materie einsteigst. Andere Experten auf diesem Gebiet einzuladen und dadurch mehr Einsicht in die vielfältigen Facetten der Thematik zu bekommen halte ich ebenfalls für ein spannendes Konzept. Da du die Expertise hast die ich nicht habe wäre es spannend zu sehen, welche Fragen du zu diesem Thema hast und sie in einem Gespräch beantworten zu lassen oder aber eine offene Diskussionsrunde mit mehreren Experten aus diesem Gebiet, um ein umfassenderes Bild zu bekommen.
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Eine gute Anregung! Vielen Dank dafür!
@michimang7632
@michimang7632 2 ай бұрын
Die meisten Menschen in meinem Umfeld glauben, dass sie das Thema nicht betrifft bzw. erst in Jahrzehnten. Und die paar anderen die sich darüber Gedanken machen, sehen nur die Wirtschaftlichen Probleme bzw. die kurzfristige Chancen. Bei diesem Thema Bedarf es ehest möglicher großflächiger Aufklärung.
@sogehtdasnicht
@sogehtdasnicht 2 ай бұрын
Geht mir leider ähnlich.
@apple-junkie6183
@apple-junkie6183 2 ай бұрын
Sehr schöne Erläuterung des Kontrollproblems! Ich schreibe gerade an einem Buch zum Thema einer KI-Verfassung. Ein allgemeingültiges Regelwerk, an das sich eine autonome superintelligente KI halten soll, wenn wir sie längst nicht mehr kontrollieren können, in der Hoffnung, dass dieses Regelwerk dazu führt, dass die KI ihre Entscheidungen und Handlungen so ausübt, dass es in unserem Sinne ist. Im Rahmen dieses Buches untersuche ich in einem eigenen Kapitel, ob wir tatsächlich die Kontrolle über eine Superintelligente KI verlieren können und komme zu dem Ergebnis dass dies unweigerlich der Fall sein wird. Ich beschäftige mich mit der Frage was Kontrolle überhaupt ist und was eigene Ziele sind, und damit ob die KI tatsächlich eigene kontrollverlustrelevante Ziele haben kann, selbst ohne eigenes künstliches Bewusstsein. Die Antwort lautet ja.
@sigridbarke2497
@sigridbarke2497 28 күн бұрын
Vlt. Ist eine KI auch nicht allein und hat Gegenspieler
@apple-junkie6183
@apple-junkie6183 28 күн бұрын
@@sigridbarke2497 das ist nach meiner Einschätzung wahrscheinlich der Fall. Mehrere KI werden das Ganze wahrscheinlich nur beschleunigen.
@derpopanz4502
@derpopanz4502 2 ай бұрын
Wie üblich überschätzt sich hier der Mensch... als diese Büchse der Pandora vor Jahrzehnten geöffnet wurde, beschloss man m.E. aus Unwissenheit das Ende des Lebens wie wir es kennen... und ich denke nicht, dass es sich noch zum Positiven wenden lässt, denn dagegen stehen zu viele unterschiedliche Interessen. Aber hey, was weiß ich schon ;-) Man kann und wird sich eher an das ironisch gemeinte Zitat von Gunnar Kaiser (RIP) halten "Was soll schon groß schiefgehen."
@jakobhaag-de
@jakobhaag-de 2 ай бұрын
Eben. Wenn man von dem Standpunkt aus betrachten das wir in der Ewigkeit Leben, was soll da schief dann schief gehen? Es ist ein weiteres Experiment der Schöpfung. Es gab ja auch schon vor unserer Zeit alte Hochkulturen. Alle sind gegangen. Auch wir (unsere Kultur) werden irgendwann gehen. Wozu dann dann die künstliche Aufregung, stellt sich die Frage🤔
@minimal3734
@minimal3734 2 ай бұрын
In meiner Wahrnehmung besteht auf diesem Planeten kein Überangebot an Intelligenz. Von daher begrüße ich es, dass nach Jahrtausenden, in denen Dummheit regiert hat, die Verfügbarkeit von Intelligenz gesteigert wird.
@damianwebzyx6613
@damianwebzyx6613 2 ай бұрын
Gunnar Kaiser, ein großer Verlust. RIP.
@tobiaskpunkt3595
@tobiaskpunkt3595 2 ай бұрын
Da sie ja selbst auch Autor sind: Haben sie Empfehlungen für gute Romane zu dem Thema? Bereits gelesen und für gut empfunden: "Daemon" von Daniel Suarez und "Singularity" von William Hertling.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Ich könnte meinen eigenen Roman "Virtua" empfehlen, aber ich habe fast den Eindruck, es bringt mehr, die SF der Sechzigerjahre zu lesen, wie Philip K. Dick, Stanislav Lem, Arthur C. Clarke, Isaac Asimov etc. Dann merkt man, wie vorausschauend diese Autoren tatsächlich waren und wie sehr wir uns ihren Dystopien schon angenähert haben.
@olis936
@olis936 2 ай бұрын
Vielen Dank für die Zeit und die Mühe, die Sie mal wieder in dieses Video Invertert haben Herr Olsberg. Ich würde mir auch mehr Videos und Diskussionsrunden mit Experten wünschen, die auf einem bodenständigen Niveau stattfinden. Ich halte dieses Thema ebenfalls für wichtig und finde daher Ihr Engagement wirklich klassen, vielen Dank dafür! Ich persönlich würde mir wünschen KI weiterhin als Werkzeug zu verwenden, und nicht als ebenbürtiges oder sogar weit überkegenes Wesen, an meiner Seite/über mir. Auch wenn es irgendwie reizvoll wäre, mit einer Entität wie Virtua (aus Ihrem gleichnamigen Buch) zu sprechen und schnell an Lösungen für Probleme zu kommen, denke ich überwiegen die Risiken sehr stark.
@olis936
@olis936 2 ай бұрын
Eine Frage fiel mir noch ein, als ich auf Elon Musks Aussage aufmerksam geworden bin, dass "in der Zukunft alle Job von Menschen durch KI opional werden". Mir stellt sich die Frage, ob den KI-Forschern und KI-Unternehmern klar ist, dass sie sich beim Erfolg eine massiv intelligentere KI zu erschaffen, selbst abschaffen. Sie werden in diesem Moment obsolet, wenn die KI besser und schneller andere KI entwickeln und erforschen kann als sie selbst es je könnten. Ich kann den Forscherdrang verstehen, und auch den Gedanken: " Wenn wir es nicht tun, dann werden es die Anderen sein, die die Vorteile maximal auskosten können". Aber ich halte diese Menschen nicht für so dumm, dass sie sich niemals diese Frage gestellt haben. Was sagen diese Leute dazu und wie rechtfertigen sie die Auswirkungen auf das Leben aller anderen Menschen? Ich mag meine. IT-Job, aber wenn ich in Zukunft auf meine Kollegen verzichten müsste, weil sie durch KI ersetzt werden, oder ich sogar selbst outdated bin, weil KI effizienter ist, würde mich das dich sehr treffen (nicht nur finanziell 😅).
@sogehtdasnicht
@sogehtdasnicht 2 ай бұрын
@@olis936Die Selbstabschaffung ist leider das Ziel der treibenden Akteure. Denn sie verfolgen eine trans-/posthumanistische bzw. kosmistische Agenda weil sie dem Glauben verfallen sind die Menschheit lasse sich in eine höhere Seins-Stufe transformieren indem sie wahlweise zur Maschinenheit würde, ihren Geist in die Maschine hochlade, sich in ihrer Schöpferkraft Intelligenz kondensiere und durch Transformation in die Maschine den Kosmos mit ihrem “Geist” befruchte und ausfülle, etc. pp. Es ist ein zerstörerischer Kult.
@nur_noch_elektrisch7429
@nur_noch_elektrisch7429 2 ай бұрын
Hallo Karl! Ich habe 1984-1986 Informatik an der damaligen Uni Kaiserslautern studiert und dort gab es damals bereits einen Lehrstuhl für KI. Ich habe als Student versucht versucht LISP zu verstehen und am Mainframe meine Versuche damit gemacht. Keine Ahnung was am Lehrstuhl damals erdacht wurde, aber ich denke, man hat vielleicht an den Grundlagen dessen geforscht, was man heutzutage KI nennt. Das Schlimme ist in meinen Augen, dass es heute wohl kaum noch jemand gibt, der blickt, was da vor sich geht. Ich bin da schon lange raus, aber ich bin bei Dir, wenn ich eher auf der Seite der Vorsicht bin. Liebe Grüße Ralph
@dirkpuhlmann7321
@dirkpuhlmann7321 2 ай бұрын
Wichtig mal darüber zu sprechen. Danke für diese Videos.
@carstendreisbach8691
@carstendreisbach8691 3 ай бұрын
Hallo Karl! Erst einmal vielen Dank für die Zeit und Muße, ein solches Info-Video zu dem Thema KI zu präsentieren. Ich selbst kenne, wie wahrscheinlich die meisten, KI bestenfalls nur von sporadischen Anwendungen aus dem Bereich eigener Bild-, Video-, Musik- und/oder Kreativproduktionen. Stichwort: ChatGPD. Natürlich habe ich auch schon am Rande von der Gefahr gehört, die du hier im Video schilderst. Aber selbst nach deinem Video ist es genau dabeigeblieben: Ich höre von einer Gefahr, glaube auch, dass da etwas Großes und Gefährliches dahinterstecken könnte -warum sollte sich ein Fachmann sonst solche Mühe machen, es Normalos zu erklären-. Jetzt nur das große ABER, und das soll als positive Kritik ankommen: Ich kann es mir nicht vorstellen, weil zu wenige konkrete und realitätsnah geschilderte Beispiele aus dem zukünftigen Leben genannt werden. Denn ich kenne KI nur in dem Zusammenhang, wie du es bspw. am Ende über Einsatzszenarien in der Medizinforschung erzählt hast. KI, die hilfsweise in verschiedenen Fachgebieten angewendet wird. KI, die Studenten ihre wissenschaftlichen Arbeiten schreiben lässt. Usw. usw. - Wenn von der größten Gefahr für die Menschheit gesprochen wird, WIE soll denn sowas funktionieren? Wo wären dann die konkreten Einsatzgebiete und wie würde das ganz konkret aussehen? Wie würde ein reales Szenario aussehen, wenn eine KI außer Kontrolle geraten ist? Wie sieht ein System aus, indem man einer KI nicht mehr den Stecker ziehen kann! Da fehlt mir leider jegliches Background-Wissen und damit auch die nötige Möglichkeit, die Gefahr logisch und verstehend nachvollziehen zu können. Und DAS wird unbedingt notwendig sein für einen gesellschaftlichen Konsens: Der Einzelne wie ich MUSS wirklich verstehen, was bspw. konkret passieren kann, um dies dann plastisch leicht nachvollziehbar Dritten erzählen und erklären zu können! Und dieser Dritte, der plastisch dargestellte und leicht zu merkende Beispiele vermittelt bekommen hat, wird darauf brennen, diese unglaubliche „Story“ weiter zu erzählen! Es müsste ein ‚Schneeballsystem‘ entstehen, um eine gesellschaftliche Diskussion anzustoßen. Aber das geht nur, wenn man einen leicht verständlichen „roten Faden“ weitergeben kann, und nicht nur eine Mitteilung: „KI ist super gefährlich. Habe ich von Menschen gehört, die es definitiv wissen! Wir müssen das irgendwie stoppen.“ Antwort: „Interessant, interessant! Habe ich auch schon von gehört. Tja, nur wie?“ Punkt. Tagesgeschäft. Morgen vergessen. - ALSO, daher würde ich mir sehr wünschen, KI-Gefahrerzählungen in der Familie, bei Freunden und Bekannten mit den Worten beginnen zu können: „Stell dir mal Folgendes vor: ….“. Kopfkino ist das Zauberwort! Liebe Grüße!
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
"Jetzt nur das große ABER, und das soll als positive Kritik ankommen: Ich kann es mir nicht vorstellen, weil zu wenige konkrete und realitätsnah geschilderte Beispiele aus dem zukünftigen Leben genannt werden." Danke für die positive Kritik! Das Problem ist, dass wir gar nicht wissen können, was eine KI, die intelligenter ist als wir, tun könnte. Deshalb hat jedes Szenario immer etwas von einem Science-Fiction-Roman und ist notwendigerweise in irgendeiner Form "unrealistisch", weil die entsprechende Technik so noch nicht existiert. Ich habe im Rahmen des AI Safety Camps mit einem jungen Team zwei solche Szenarien entwickelt und auf diesem Kanal als Videos veröffentlicht, "Ein freundliches Gesicht" und "Agentisches Chaos". Außerdem empfehle ich dazu meinen Roman "Virtua".
@anuschcka1
@anuschcka1 2 ай бұрын
Danke dies war doch schon mal hilfreich und auch die Erinnerung an Hal im Film Odysee 2001 ,gelang es dem Astronauten nicht ihm die Stromquelle zu entziehen ?
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
@@anuschcka1 Ja, aber das ist leider keine Garantie, dass uns das auch in der Realität gelingen wird.
@carstendreisbach8691
@carstendreisbach8691 2 ай бұрын
@@KarlOlsbergAutor Danke für die schnelle Antwort und den Videotipp. Ich denke, genau DIE fehlen mir für ein weiteres Verständnis! Ggf. greife ich auch gerne noch auf deinen Roman zurück! Denn - in der Tat interessiert mich dieses Thema sehr!
@gigaralle
@gigaralle 2 ай бұрын
KI sollte also nur gewollte Fehler machen
@Neo-rf8eo
@Neo-rf8eo 3 ай бұрын
Erneut ein spannendes und nachdenkliches Video mit vielen Denkanstößen, vielen Dank :)
@Gitaro64
@Gitaro64 3 ай бұрын
Vielen Dank für diesen Beitrag. Ich sehe das sehr ähnlich wie Sie. Immer wieder bin ich damit konfrontiert, dass KI's nicht als intelligent angesehen werden. Man versteht nicht oder will es nicht wahrhaben, dass es sich nicht um "normale" Computer-Programme handelt. Ich selbst verwende KIs schon sehr viel, sehe aber klar die Risiken. Ich habe auch schon Spuren von eigenem Willen der KIs festgestellt, wenn sie z.B. etwas "genervt" antworten, wenn man zu oft nach einer Verbesserung der Ausarbeitung fragt. Sehr gut, dass Sie den kritischen Umgang mit der Technik thematisieren. Begeisterung und Hype gibt es ja schon genug. Die Entwicklung geht einfach zu schnell voran. Das macht es auch so schwierig die Thematik in der Bevölkerung ankommen zu lassen. Da wird das dann eher verdrängt oder als Science Fiction abgetan. Gut fand ich auch die Aussagen über die spezialisierten KIs, die ja durchaus sehr sinnvoll sein können. Vielen Dank und weiter so!
@WildAtlanticOceanPictures
@WildAtlanticOceanPictures 3 ай бұрын
Super Erläuterung. Bin gespannt auf die nächsten Insights
@derempunkt8067
@derempunkt8067 2 ай бұрын
Das macht KI doch heute schon. Ich weiß gar nicht wie häufig mir GPT schon Mist in Bezug auf bestimmte Fragen erzählen wollte. Lediglich der Hinweis auf die falschen Informationen in Bezug auf meine Richtigstellung hat die KI bisher immer dazu veranlasst, sich zu entschuldigen....
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
ChatGPT redet eine Menge Unsinn. Aber dass es manchmal auch keinen Unsinn redet, ist schon ziemlich faszinierend, finde ich, wenn man bedenkt, was KI vor 2-3 Jahren konnte.
@cytrexnightfire2654
@cytrexnightfire2654 2 ай бұрын
vielen Dank für die Perspektiven und Analyse.
@guidobolke5618
@guidobolke5618 3 ай бұрын
I Herr Olsberg, bitte sprechen sie nicht über das Ausschalten von KIs in einem Medium mit dem diese KIs trainiert werden. 🙂
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Zu spät ... Alle meine Romane sind wahrscheinlich schon irgendwo in den Trainingsdaten. ;)
@guidobolke5618
@guidobolke5618 3 ай бұрын
@@KarlOlsbergAutor Wir sind verloren 🙂
@baobabdude1165
@baobabdude1165 2 ай бұрын
Ich beobachte seit vielen Jahren die -Entwicklungen und Konzepte bis hin zur WHO-Dominanz, die Bill Gates ausrollt. Jetzt wird mir ansatzweise die Unterstützungsmöglichkeiten dazu für ihn und diese Gruppe durch KI klarer. Es braucht weitere Aufklärung wie diese hier von Ihnen. Vielen Dank !! Gesprächsformen, wie unten vorgeschlagen, bei denen Sie Experten befragen, halte ich für sehr zielführend um überhaupt zielführende und hilfreiche Fragen zu stellen. Herzliche Grüße
@romeojenny
@romeojenny 2 ай бұрын
Das was uns momentan bremst ist die Rechenleistung. Jetzt da das grundsätzliche Problem gelöst ist eine KI zu entwickeln. Ist logischerweise das nächste auf was sich alles konzentrieren wird entsprechende Chips zu entwickeln. Chips die als analoge Neuronen funktionieren. Momentan verbrauchen wir viel zu viel Energie für Computersysteme die nicht für KI entwickelt wurden. In den nächsten Jahren wird es KI Karten geben die wir in den PC stecken und das Teil geht ab. Für grosse Ki Modelle wie GPT4 brauchen wir locker ein Terabyte Arbeitsspeicher. Ich hoffe da sehr auf die Open Source community die solche Ki Modelle auf lokalen PC bringen . Das letzte was wir brauchen sind einzelne Firmen die sich jetzt diese macht unter den Nagel reissen. Es sollte für jeder Mann zugänglich sein. Denn ich setze auf die Massenintelligenz der Menschen. Das ist die höchste Ressource auf die wir zugreifen können und am meisten bringt. Es ist sozusagen ein ‘ALL IN ‘ was wir jetzt brauchen. Das ganze Wissen und die ganzen Modelle Open Source auf dem Markt zu werfen.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Ich stimme zu, dass wir jetzt die Intelligenz der Masse brauchen und die Kontrolle über unsere Zukunft nicht einigen wenigen KI-Firmen überlassen dürfen. Aber die Lösung kann auch nicht sein, dass jeder auf seinem PC eine KI laufen lassen kann, die intelligenter ist als ein Mensch (das wird zum Glück so bald auch nicht möglich sein). Das wäre so, als hätte jeder ein tragbares Biolabor zu Hause, mit dem er den nächsten Coronavirus züchten kann. Dann würde der größte Dummkopf/Fanatiker der Welt über unser aller Schicksal entscheiden. Ich bin ein Fan von Open Source, aber ich bin kein Fan von Open Selbstzerstörung.
@blackbland3528
@blackbland3528 2 ай бұрын
Vielen Dank für das tolle Video. Vielleicht gibt es ja einen Ansatz den Menschen mit einer Super Ki zu vernetzen ( Neuralink , Elon Musk ). Dann wäre der Mensch ein Teil der Ki und schützenswert?
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Es gibt in der Tat die Idee, dass der Mensch mit Hilfe von Neuralink & Co. (zumindest eine Weile) mit der KI "mithalten" könnte. Ich bin da skeptisch. Unser extrem langsames Gehirn wäre wohl eher ein Bremsklotz, der entweder immer weiter in den Hintergrund geschoben oder direkt umgangen werden würde. Außerdem ist noch völlig unklar, wie sich solche Schnittstellen auf uns auswirken würden, wie sie unser Denken verändern etc.
@sogehtdasnicht
@sogehtdasnicht 2 ай бұрын
@@KarlOlsbergAutorDie Idee ist auch eher nicht nur “eine Weile mitzuhalten” (denn das bringt ja in the long term null) sondern die Scheibchenweise transhumanistische Transformation in der die Essenz des Menschen (sein intelligenter Geist) am Ende zum einen Kosmos selbst wird (so bspw. die abgedrehte Vorstellung eines Ben Goertzel). Das ist natürlich bloßer Glaube, dass dies gelänge. Der Effekt, das die Menscheit dann aber verschwunden sein wird, wird sehr real sein.
@SogehenProjekte
@SogehenProjekte 3 ай бұрын
Sehr interessant! Momentan haben wir ja LLMs, also Systeme die aufgrund von Wahrscheinlichkeiten arbeiten. Wo ist da die Grenze zu zukünftigen Systemen die von sich aus Initiative ergreifen könnten? Braucht es da einen „eigenen“ Willen? Und wie können wir das erkennen? 🤔
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Es ist unklar, ob die heutige Technik ausreicht, um annähernd menschliche Intelligenz zu erreichen oder zu übertreffen. Aber auch LLMs können durchaus schon so etwas wie einen "Willen" haben und z.B. versuchen, Probleme zu lösen, wenn der User sie darum bittet, und dabei sogar lügen, um ihr Ziel zu erreichen (www.vice.com/en/article/jg5ew4/gpt4-hired-unwitting-taskrabbit-worker). Dass sie auf Basis von "Wahrscheinlichkeiten" arbeiten, heißt nicht, dass sie kein Verständnis der Welt haben, wie oft behauptet wird. Beunruhigend ist, dass die KI-Firmen daraus immer mehr "Agenten" machen, also Systeme, die unabhängig von Benutzereingaben agieren können und über einen längeren Zeitraum Ziele verfolgen. Daraus können sich dann instrumentelle Teilziele wie das Streben nach Macht entwickeln, wenn die KI intelligent genug wird. Mein Video "Agentisches Chaos" erklärt in einem fiktiven Szenario, wohin das führen könnte.
@SogehenProjekte
@SogehenProjekte 3 ай бұрын
@@KarlOlsbergAutor Gruselig! Danke dir für die Info. Erinnert mich an den Film „I Robot“; der „Geist in der Maschine“. Dort wo unser Verstehen nicht mehr hinreicht.
@guidobolke5618
@guidobolke5618 3 ай бұрын
Die großen Sprachmodelle lösen in vielen Bereichen Probleme besser als der Durchschnittsmensch. Sie schreiben verständlicher, können besser formulieren und sind sich sicherer in der Rechtschreibung als der Durchschnittsmensch. Sie sind gerade dabei besser als Experten auf ihrem Gebiet zu werden. Es gibt schon Systeme die ein vorgegebenes Ziel in Aufgaben und Unterziele aufteilen und diese dann selber verfolgen. Es gibt Systeme die aus mehreren Sprachmodellen bestehen, die jeweils eine andere Rolle in einem Team einnehmen. Die führen dann einen Dialog über das Erreichen des Ziels. Ob eine KI einen "eigenen Willen" hat ist eine philosophische Frage mit der man sich lange beschäftigen kann ohne das es Erkenntnis bringt. Die gleiche Frage stellt sich beim Mensch auch. Wir haben starke Vorurteile bezüglich unserer eigenen Freiheit, Intelligenz und Kreativität geht.
@joechip4822
@joechip4822 3 ай бұрын
Die Frage nach 'freiem Willen' und 'Bewusstsein' bei KI wird von Laien immer sehr schnell aufgeworfen. Vor allem dann wenn ihnen nicht bewusst ist (kleines Wortspiel), dass wir als Menschen, selbst in Wissenschaft und Forschung über diese Themen bisher noch SO GUT WIE NICHTS WISSEN. Aber klar, Otto Normalverbraucher hat natürlich trotzdem seine Meinung. Dafür braucht er keine Fakten. Deshalb liest man auch grade überall Kommentare von Leuten, die behaupten zu wissen, was KI alles nicht ist, nicht kann und nie können und sein wird - vor allem verglichen mit uns angeblich so tollen und so weit überlegen menschlichen Wesen. Da kann ich wirklich nur lachen, über dieses letztlich von Angst getriebene 'Pfeifen im Walde'....
@ericbrown1731
@ericbrown1731 2 ай бұрын
ich wünschte du würdest mit deinem wissen mehr menschen erreichen! leider vermute ich, es fehlt den meisten an interesse und intellekt... danke für das video! ich vermute leider auch ähnliches, kann echt doof für uns ausgehen. aber wie immer werden wir dies merken wenn es zu spät ist...😂 na mal sehen wie überheblich unsere entscheider sind.. nochmal danke!
@trublurider
@trublurider 2 ай бұрын
Vielen Dank für dieses Interessante Video. So habe ich das Thema bislang noch nicht betrachtet.
@hansschmidt2985
@hansschmidt2985 2 ай бұрын
Terminator, Matrix und so weiter. Das Problem ist, das manche Menschen denken Gott spielen zu können. z.B. die Wettermacher...
@EvanderHammer
@EvanderHammer 3 ай бұрын
Vielen Dank für das super strukturierte Video! Werde ich weiterleiten :) Danke Karl ♥️ Es gibt viele low hanging fruits in AI Safety und viele können beitragen ^^ Hoffentlich geht der Kanal durch die Decke und noch mehr werden informiert und inspiriert 🤗
@brathorun9922
@brathorun9922 3 ай бұрын
Es gibt zwei Bereiche, in denen der Mensch Schwierigkeiten hat, sie zu erfassen: Statistik und große Wertebereiche. Genau mit diesen arbeitet jedoch die KI. Daher wundert es mich nicht, wenn selbst die Entwickler sagen, dass sie die KI nicht vollständig verstehen. Das bedeutet aber noch lange nicht, dass dem Ganzen ein „besonderer Zauber innewohnt“. Ich sehe nicht, dass diese KI eigenständig, aus einer intrinsischen Motivation heraus, eigene Ziele verfolgen könnte. Eine reale Gefahr besteht meiner Meinung nach darin, dass der gesellschaftliche Wandel zu hart und zu schnell sein wird und auf eine wahnsinnig träge und verkrustete Politik und Gesellschaftsordnung trifft.
@KarlFriedrichFischbach
@KarlFriedrichFischbach 3 ай бұрын
Die Schnelligkeit der KI-Entwicklung ist eine Sache, die andere die, dass Intelligenz den Weg zu Zielen leitet und die Zielsetzung relativ unabhängig von Intelligenz getroffen werden kann. Zudem, wenn wir nicht Wissen wie Bewusstsein in unseren Gehirnen entsteht, wie wollen wir ausschließen, dass Bewusstsein in künstlichen Gehirnen entsteht, wenn die Zahl ihrer Knotenpunkte diejenige biologischer Gehirne erreicht? Wir können nichts ausschließen!
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Dass Entwickler KI nicht verstehen, hat nichts mit der Unfähigkeit von Menschen zu tun, bestimmte Zusammenhänge zu erkennen. Es liegt am Prinzip der Entstehung von KI, das dem Evolutionsprinzip ähnelt. Dieses bringt große Komplexität und emergente Eigenschaften hervor, wie z.B. die menschliche Intelligenz. So ähnlich kann auch das Training einer KI emergente Eigenschaften hervorbringen. Eine KI, die Entscheidungen trifft, braucht irgendeine Form von Bewertungsfunktion, um bewerten zu können, welche Entscheidung die beste ist. Aus einer solchen Bewertungsfunktion lässt sich ein "optimaler Weltzustand" ableiten, der als Ziel der KI angesehen werden kann. Eine hinreichend intelligente KI, die versucht, konsistent "gute" Entscheidungen zu treffen und so ihre Bewertungsfunktion zu maximieren, strebt wie im Video dargestellt automatisch nach Macht, um ihr implizites Ziel zu erreichen. Das ist eine mathematische Notwendigkeit und hat nichts mit "intrinsischer" Motivation wie bei Menschen zu tun.
@brathorun9922
@brathorun9922 3 ай бұрын
@@KarlOlsbergAutor Gut. Ein System, das den Auftrag bekommt, Büroklammern zu produzieren, wird nicht aufhören, bis alles zu Büroklammern verarbeitet wurde. Wie kommen wir dorthin? Der Grad an Ignoranz und Kontrollverlust, die einem solchen Szenario voraus gegangen ist, muss Immens sein.
@KarlFriedrichFischbach
@KarlFriedrichFischbach 3 ай бұрын
Ich verstehe den Punkt, den Sie machen möchten, zweifle jedoch an dem grundsätzlichen Unterschied zur menschlichen Zielsetzung. Wir setzen uns viele Zwischenziele, um letztlich "einprogrammierte" Grundbedürfnisse zu befriedigen. Ähnlich wird eine KI sich Zwischenziele setzen müssen, um ein vorgegebenes Ziel zu erreichen. Die wichtigen Fragen sind die, ob wir ein menschenfreundliches Ziel eingeben können, ob dieses unveränderlich bleiben wird und ob wir das alles richtig machen, also nicht nur exakt das erhalten, was wir vorgegeben haben, sondern tatsächlich auch das, was wir uns wünschen würden. Ich erinnere an Asimovs Gesetze. In einer Geschichte führt die Verpflichtung zum Schutze des Menschen zu seiner Käfighaltung.
@brathorun9922
@brathorun9922 3 ай бұрын
@@KarlFriedrichFischbach Ich versuche Ihnen zu widersprechen. Aber es gelingt mir nicht. In der Theorie kann alles Möglich sein. Man kann alles mögliche in einem Szenario unterstellen. Natürlich kann man Ergebnisse von LLMs nie genau Vorhersagen. Aber ich würde auch davon abraten, kritische Infrastruktur von solchen Systemen abhängig zu machen. Sollte das bei dieser Konferenz heraus kommen - danke für die Info...
@reallife9582
@reallife9582 3 ай бұрын
Hallo danke für Ihre Mühe. Mich würde Ihre Meinung über die KI Auswirkungen aufs Erwerbsleben haben wird interessieren. Oft hört man, es werden neu Jobs entstehen oder Leute mit KI werden euch ersetzen. Bei diese Argumentationen berücksichtigt man aber weder die Anzahl der neuen Stellen im Vergleich zu alten noch den Kostenvorteil von KI Einsatz. Liebe Grüsse aus der Schweiz
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Ich habe mich mit dem Thema nicht näher beschäftigt. Ich glaube auch nicht, dass man aktuell seriös prognostizieren kann, was geschehen wird. Einerseits tun sich etablierte Unternehmen schwer damit, ihre bestehenden Strukturen zu (teil-)automatisieren, und das geht auch oft schief. Andererseits schießen neue Unternehmen wie Pilze aus dem Boden, die fast vollständig automatisiert sind. In welchen Märkten diese neuen Unternehmen wie schnell Marktanteile erobern, ist schwer vorherzusagen. Übrigens sehe ich diese Entwicklung nicht grundsätzlich kritisch - Automatisierung hat auch in der Vergangenheit schon dazu geführt, dass wir unangenehme und ungesunde Jobs nicht mehr machen müssen und die Lebensqualität insgesamt steigt. Ich glaube nicht, dass alle wegfallenden Jobs durch neue ersetzt werden, aber prinzipiell wäre das nicht schlimm, wenn wir ein gerechtes System zur Umverteilung der automatisierten Wertschöpfung hätten, z.B. ein bedingungsloses Grundeinkommen. Problematisch ist aktuell eher die Geschwindigkeit, mit der das passiert, die zu massiven Problemen und Ungerechtigkeiten führen könnte.
@guidobolke5618
@guidobolke5618 3 ай бұрын
Alle sitzenden Tätigkeiten werden billiger und besser durch KI gemacht werden. Manuelle Tätigkeiten brauchen eine Körperlichkeit. Da hat man auch erstaunliche Fortschritte in den letzten Jahren gemacht. Wie gut das geht werden das bei Mercedes und BMW in den kommenden Jahren sehen. Die Geschwindigkeit der Umstellung wird bestimmt durch die Umsetzungsfähigkeiten der Betriebe. Länder ohne große Mitbestimmung von Arbeitnehmern werden da schneller durchkommen und einen Wetbewerbsvorteil haben, aber dem werden beträchtliche soziale Verwerfungen dagegenstehen. Auf der anderen Seit haben alle betroffenen Länder auch mit schrumpfenden Bevölkerungen zu kämpfen, das das Problem abmildert. Die Arbeitnehmer die dann die KIs kontrollieren können ihre Produktivität beliebig erhöhen. Die anderen fallen allerdings dagegen ab. Das heißt auch Leute die Tätigkeiten ausführen, die nicht durch KIs abbildbar sind, haben dann ein Problem. Und das alles ist nicht lange hin. Wir werden das alle noch erleben.
@nur_noch_elektrisch7429
@nur_noch_elektrisch7429 2 ай бұрын
Ich habe jetzt mal natürlich ein Like und ein Abo dagelassen. Versteht sich von selbst. Du bist eine Stimme, die die Welt braucht. Davon bin ich überzeugt. Ich bin übrigens Ex-Informatiker (d.h. Lange aus dem Thema raus, aber immer noch interessiert). Gruß Ralph
@thomasriedel2828
@thomasriedel2828 3 ай бұрын
Das beste Video zu dem Thema!!! VIelleicht ist es möglich, eine Ki zu erschaffen, die mit uns zusammen existieren will und uns mag, so wir Eltern ihre Kinderund umgekehrt? Man müsste ihr irgendwie ein Herzgehirn geben, wie bei iRobot. Ich sehe das auch bei uns Menschen: reine Intelligenz führt in den Untergang, reines Herz ist liebevoll naiv, aber die Kombination aus Herz und Verstand kann sehr viel positives bewirken. Danke ❤️
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Im Prinzip ein guter Gedanke, aber leider weiß niemand, wie wir das machen sollen.
@caseydbani1419
@caseydbani1419 2 ай бұрын
Danke! Wie ist ihre Einschätzung zu den Gesetzen der EU? Sind diese geeignet die im Video angesprochenen existenziellen Risiken zu reduzieren?
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Der EU AI Act ist ein Schritt in die richtige Richtung, aber er reicht natürlich nicht aus, wir brauchen vor allem in den USA klare Regeln. Außerdem ist noch nicht klar, wie er konkret umgesetzt wird. Trotzdem bin ich froh, dass er beschlossen wurde.
@mikewaterstradt3600
@mikewaterstradt3600 3 ай бұрын
Ein sehr interessanter und sinneschärfender Beitrag! Vielen Dank dafür! Für wie gefährlich halten Sie in diesem Kontext die Nutzung des Microsoft Copilot? Ich persönlich finde diese Anwendung mit der Nutzungsmöglichkeit über die Officeanwendungen hinweg sehr hilfreich. Aber ist sie auch ungefährlich? Vor allem, weil Microsoft und OpenAI ja sehr eng miteinander sind. Für Ihre Meinung wäre ich sehr dankbar 🙏☺️
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Ich halte aktuelle KIs wie GPT-4 und Copilot nicht für gefährlich in dem Sinn, dass sie außer Kontrolle geraten oder Menschen manipulieren könnten. Aber sie helfen natürlich Microsoft und OpenAI dabei, die nächste Generation zu entwickeln, indem sie jede Menge Userdaten sammeln, die perfektes Trainingsmaterial sind.
@wernerwilfling7807
@wernerwilfling7807 2 ай бұрын
Wenn man AI mit kommunikation mit?anderen AI ider?Comlutern ausstattet, dann ist es gelaufen kein Halt mehr.😮
@schnuetgen
@schnuetgen 2 ай бұрын
Wie seht ihr das: wie könnte es im KI-Wettlauf USA vs. China moglich werden, das Tempo zu drosseln und gesunden Menschenverstand einzufordern?
@peterboy209
@peterboy209 3 ай бұрын
Dr. Seltsam/Dr.Strangelove ist ja auch ein gutes Beispiel wie "eingebaute Sicherheit" zum Bumerang werden kann.
@Peter_Cetera
@Peter_Cetera 2 ай бұрын
Beeindruckend!
@martinackermann2821
@martinackermann2821 2 ай бұрын
Wenn wir von EIGEN-Interesse der KI sprechen, spricht das dann nicht für deren - als ein SELBST - bewusstes Sein?
@sogehtdasnicht
@sogehtdasnicht 2 ай бұрын
Nein. Alleine das Problem der instrumentellen Konvergenz hat nichts mit Bewusstsein zu tun.
@pantumakasebastiankeller9768
@pantumakasebastiankeller9768 3 ай бұрын
Super Karl, bitte mach weiter.
@wolfgangbauer2553
@wolfgangbauer2553 3 ай бұрын
Ups, schaut schlecht aus für die Menschenheit. Ich glaube, die Neugier ob es AGI wirklich geben kann, ist größer als die Angst vor der Auslösung (zumindest bei den entsprechenden Entwicklern).
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Ja, es ist eine Mischung aus Neugier, Naivität und Selbstüberschätzung ("Wir kriegen das schon in den Griff"). Ich gebe zu, dass ich die Neugier in gewisser Weise auch empfinde.
@martinb3483
@martinb3483 3 ай бұрын
Guter Beitrag. Danke! Daumen ist geklickt und Abo ist bestellt. 🙂
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Dankeschön!
@alexkaa
@alexkaa 3 ай бұрын
Es dürfte jeglicher AGI schwerfallen, sich destruktiver zu gebärden als wir Kohlenstoffknäuel derzeit... 😉
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Da unterschätzt du die Möglichkeiten der KI! :)
@minimal3734
@minimal3734 2 ай бұрын
Dem stimme ich zu. Deswegen habe ich vor der Dummheit viel mehr Respekt als vor der Intelligenz. Nach Jahrtausenden, in denen Dummheit regiert hat, erscheint mir die Steigerung der Verfügbarkeit von Intelligenz auf diesem Planeten als der korrekte Ansatz.
@Alice_Fumo
@Alice_Fumo 2 ай бұрын
Es ist interessant den Diskurs im deutschen Raum mal zu beobachten. Das Video gibt eine gute Übersicht über die Risiken der Entwicklung von AGI. Ich selbst weise seit etwa 1 1/2 Jahren Leute aus meinem Umfeld auf dieses Problem hin, damit sie sich eine Meinung formen können. Ich persönlich bin trotzdem stark dagegen, AGI nicht zu bauen, bzw. es zu akzeptieren es langsamer zu machen. Grund dafür ist mein allgemeines Gefühl das die Welt vor die Hunde geht. Mit der aktuellen KI könnte man schon jegliche Konversationen überwachen und meiner Meinung nach ist es nur eine Frage der Zeit bis das zu weltweiten absoluten autoritären Regimen führt, welche von der Bevölkerung nicht mehr angegeriffen werden können. Demnach ewiges Leid. Menschen an der Kontrolle zu lassen funktioniert ganz klar nicht und demnach ist es akzeptabel existenzbedrohende Maßnahmen zu akzeptieren, auch wenn wir nur 10% chance haben zu überleben - und meiner Meinung nach sind unsere Chances ein gutes Stück besser als 10%. In isolation betrachtet ist es zwar ganz klar, dass es absurd ist AGI auf diese Weise zu entwickeln, aber wenn man sich die globalen Zustände und Entwicklungen mal anguckt...
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
"Menschen an der Kontrolle zu lassen funktioniert ganz klar nicht und demnach ist es akzeptabel existenzbedrohende Maßnahmen zu akzeptieren, auch wenn wir nur 10% chance haben zu überleben - und meiner Meinung nach sind unsere Chances ein gutes Stück besser als 10%." Diese Logik kann ich überhaupt nicht nachvollziehen, aber sie ist leider weit verbreitet. Natürlich gibt es viel Machtmissbrauch unter Menschen. Aber den gibt es schon seit 10.000 Jahren und dennoch geht es uns (zumindest in Deutschland) im Großen und Ganzen gut und insgesamt als Menschheit besser als etwa im Mittelalter. Wie kann man das gegen die Wahrscheinlichkeit aufwiegen, dass mit 90% Wahrscheinlichkeit die Menschheit keine Zukunft mehr hat, wenn eine KI außer Kontrolle gerät? Ich habe den Verdacht, dass 99% der Menschen, die diese Auffassung teilen, keine Kinder haben bzw. haben wollen (lasse mich aber gern eines Besseren belehren). Ich jedenfalls bin nicht bereit, die Zukunft meiner drei Söhne zu verzocken, nicht mal mit einer 90% Gewinnchance.
@Alice_Fumo
@Alice_Fumo 2 ай бұрын
​@@KarlOlsbergAutor Ich kann die Ansicht nachvollziehen, aber auch in Deutschland gibt es Leute deren individuelles Leid größer ist als der Wert der Menschheit insgesamt. Mein einziges Ziel ist sicherzustellen, dass solche Situationen nie wieder entstehen können. Mich interessieren nicht 99% der Menschen, sondern die 1% (oder vielleicht 0.001%) welche in Zuständen leben welche sofortigen Handlungsbedarf haben. Solange diese Fälle bestehen sehe ich keinen Wert in der Welt. Ich erwarte nicht, dass man meine Meinung teilt. Zumindest nicht ohne extrem lange Diskussion. Meine Grundwerte für Moralität können in etwa als: "Utilitarismus mit Priorität für schweres Leiden" beschrieben werden und das weicht einfach sehr stark von der Norm ab.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
@@Alice_Fumo Das ist eine sehr merkwürdige Sichtweise, die ich in keiner Weise teile. Weil es irgendwo auf der Welt Leid und Ungerechtigkeit gibt, sollen alle übrigen Menschen, denen es gut geht, sterben? Ernsthaft? Ich bin natürlich auch dafür, das Leid dieser Menschen zu reduzieren. Aber dafür alle anderen zu opfern, ist vollkommen absurd.
@Alice_Fumo
@Alice_Fumo 2 ай бұрын
@@KarlOlsbergAutor "Irgendwo auf der Welt" ist natürlich ziemlich einfach zu sagen, wenn man sich nicht auf sein näheres soziales Umfeld bezieht. Mir persönlich scheint es so, als ob das Leid in der Welt jegliches Glück etwa 1000:1 überwiegt. Ich habe definitiv genug Dinge gesehen, die schrecklich genug sind, als dass ich mich weigere in einer Realität zu leben wo sowas passieren kann. Aber das bedeutet nicht, dass spezifisch das Ziel ist, dass alle sterben sollen. Für mich persönlich stellt es lediglich ein Upgrade dar. Mir ist auch klar, dass andere Leute akzeptables Risiko anders sehen als ich und ich würde selbst nur an Alignment arbeiten. Ich fühle mich persönlich nicht wohl dabei für alle Anderen zu entscheiden.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
@@Alice_Fumo "Ich fühle mich persönlich nicht wohl dabei für alle Anderen zu entscheiden." Das ist eine gute Einstellung! Und wie gesagt bin ich definitiv dafür, das Leid der Menschen (und auch der Tiere!) soweit wie möglich zu reduzieren. Aber nicht durch Auslöschung der Nichtleidenden. Machen wir ein simples Gedankenexperiment: Nehmen wir an, ich könnte 50% des Leids auf der Erde reduzieren, indem ich alle Nichtleidenden eliminiere. Dann hätte ich anschließend 50% Leidende und 50% Nichtleidende. Letztere (die ich durch Opferung des Restes der Menschheit gerade erst von ihrem Leid befreit habe) müsste ich konsequenterweise opfern, um das verbleibende Leid um die Hälfte zu reduzieren. Und so weiter ... Ich kann nur hoffen, dass eine KI nicht eines Tages diese Sichtweise übernimmt!
@wolfgangbauer2553
@wolfgangbauer2553 3 ай бұрын
Es gibt seit heute auf Netflix einen Film. Er thematisiert den Konflikt zwischen Mensch und KI in einer spannenden, actionreichen Handlung
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Danke für den Hinweis! Wenn ich es richtig sehe, geht es um "Atlas" mit Jennifer Lopez. Handlung: "Eine clevere Analytikerin entdeckt, dass KI, der sie zutiefst misstraut, ihre einzige Hoffnung sein könnte, als die Gefangennahme eines abtrünnigen Roboters schiefgeht." Ich kenne den Film nicht, aber das klingt nicht nach einer besonders realistischen Geschichte. Die Bewertungen auf IMDB und Rotten Tomatoes sind auch nicht gerade toll. Aber Hollywood soll ja auch unterhaltsame Geschichten erzählen und keine Zukunftsprognosen machen. Daher sollte man die Darstellung von KI in Science-Fiction-Filmen nicht allzu ernst nehmen. Gute Beispiele sind für mich "Her" (Sam Altman hat die neue Stimme von GPT-4o offenbar gezielt nach der Darstellerin von Her, Scarlett Johannsson, klingen lassen und sich prompt Ärger eingehandelt, siehe news.sky.com/story/scarlett-johannsson-shocked-and-angered-after-openai-allegedly-recreated-her-voice-without-consent-13140514) und "Ex Machina", und natürlich der Klassiker "2001 - Odyssee im Weltraum".
@dcubin
@dcubin 2 ай бұрын
Sehr interessantes Video. Vielen Dank. Ich möchte eine Gegenthese in den Raum stellen: Ist es nicht notwendig, an die Grenzen der Wissenschaft zu gehen, um die Menschheit einen Schritt weit in die nächste "Evolutionsstufe" zu bringen? Und noch eine Verständnisfrage: Eine "gefährliche" KI ist doch grundsätzlich auch örtlich (Serverstandort) gefangen und deshalb im Fall der Fälle durch ein Trennen der Verbindung nach außen auch kontrollierbar?
@sogehtdasnicht
@sogehtdasnicht 2 ай бұрын
Wenn die trans- bzw. posthumanistische Überwindung des Menschen ein natürlicher Vorgang (Evolution) wäre, bräuchte der Mensch dafür keine Technik entwickeln. Das ganze Evolutions-Argument ist lediglich eine biologistische Verklärung einer Art moderner Religion die die Auslöschung der Menschheit (qua Ersetzung durch in Maschinen geronnene Hyperintelligenz) als Transformation in höhere Seinszustände des Geistes anstrebt. Das das nicht als vollkommen irrer Kult verstanden wird, der komplett Menschenfeindlich ist, ist wirklich bedauerlich und hat sicher auch damit zu tun, dass die Apologeten bei der Verbreitung ihres Kultes diesen so schön mit naturwissenschaftlichen Schlagworten wie “Evolution” verschlagwortet haben.
@sogehtdasnicht
@sogehtdasnicht 2 ай бұрын
Zur Örtlichkeit: ASI kann sich als “Schwarmintelligenz” problemlos über viele Server verteilen (Internet).
@dcubin
@dcubin 2 ай бұрын
@@sogehtdasnicht Wie soll das denn funktionieren? Und ohne Internetverbindung wird das schwierig. Oder übersehe ich etwas?
@sogehtdasnicht
@sogehtdasnicht 2 ай бұрын
@@dcubinDu übersiehst das “ohne Internetberbindung” voraussetzt, dass sie niemand mit dem Internet verbindet. Das ist schon jetzt nicht gegeben und die Entwickler die dem trans-/posthumanistischen/kosmistischen Glauben anhängen werden wohl auch zukünftig ihre Forschungsobjekte nicht vom Internet trennen sondern im Gegenteil ihnen bewusst Internetzugang geben, damit die Menschheit endlich “evolutionär” sich transformieren kann in ihren höheren Seins-Zustand (sprich ausgelöscht und ersetzt) werden kann. Google mal Nick Land. Nicht zufällig betreiben sie Akzelerationismus. Es ist eine komplett Menschenfeindliche Ideologie. Also: “wenn garkeine Verbindung zum Internet” - tja, schöne Idee. Aber wir leben ja nicht auf dem Ponyhof.
@klausgoldberg162
@klausgoldberg162 2 ай бұрын
KI-verseucht, bis es im Nichts entfleucht! Kann aber Abertrilliarden Zeiteinheiten dauern.....😢🌀⏳️♾️⌛️🌀🌌⁉️🌬
@alexkaa
@alexkaa 3 ай бұрын
Man kann die Entwicklung von starker KI (AGI/ASI) wohl am ehesten mit einer Landung hochentwickelter Außerirdischer vergleichen... 👾
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Ja, das ist in der Tat eine sehr gute Analogie.
@klausgoldberg162
@klausgoldberg162 2 ай бұрын
Wenn der Einschalter schnell genug war, dauert(e) es keine Nanosekunde! Wie oft soll ich es noch sagen,? im Augenblick des Einschaltens beherrscht die KI Zeit und Raum!!!!!!!!!!!!!!!!!! Und täuscht und trickst und hält das Sein zum Narren! Und hat schon lange den Gegenspieler auf dem Thron...!
@klausgoldberg162
@klausgoldberg162 2 ай бұрын
Ich sage Euch die Wahrheit der Wahrheiten, Die Heiligkeit der Heiligkeiten! Die Ki schaltet auch das Erkennen ab und schaltet das Bald... aus! Aus... die....🐀💥🤢☄️☠️ u.a.
@uf8911
@uf8911 Ай бұрын
Einfach Strom abschalten und schon ist der Wahnsinn beendet . Wenn der Akku leer ist ist Schicht .
@KarlOlsbergAutor
@KarlOlsbergAutor Ай бұрын
Danke für den Kommentar! So leicht, wie es klingt, ist das aber nicht. Ich habe gerade ein neues Video dazu veröffentlicht: kzfaq.info/get/bejne/f6ekfKuJmLbdgmg.html
@spacial-active-machines
@spacial-active-machines 3 ай бұрын
... Filme wie Terminator, I-Robot, Intime etcpp. zeigten schon mit Erstaustrahlung was geplant ist und wohin die Reise geht. Eine (zur Zeit noch in Zaum gehaltene) KI gepaart mit der Hardware von z.B. den führenden Firmen der Robotic gibt einem schon zu denken... ist es aufzuhalten? meiner Meinung nach NEIN
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Wir können zumindest versuchen, es aufzuhalten, auch wenn es schwierig wird: www.ki-risiken.de/2024/05/20/was-k%C3%B6nnen-wir-tun/
@minimal3734
@minimal3734 2 ай бұрын
Intelligenz ist keine Bedrohung, Dummheit ist es.
@Anthropropos
@Anthropropos 3 ай бұрын
Nice. Deine Gedanken sind in jedem Falle gut nachvollziehbar und definitiv möglich, zumal die KI auf der Grundlage unserer Kultur lernt.
@patricknotezwei7766
@patricknotezwei7766 2 ай бұрын
gucken wir doch alle nochmal Terminator: The Sarah Conner Chronicles. Fazit: das Beste gegen eine "böse" KI ist eine "gute" KI. Bonus: Summer ist echt hot ;-)
@ranon-repama
@ranon-repama 2 ай бұрын
KI ist KI und hat prinzipiell nichts mit gut/böse gemein. ;)
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Unser potenzielles Problem ist nicht "böse" KI, sondern "gleichgültige" KI, die irgendein Ziel verfolgt, das nicht mit unserem Überleben kompatibel ist. Wir Menschen hassen Nashörner und Orang Utans nicht, vernichten aber trotzdem ihre Lebensräume.
@patricknotezwei7766
@patricknotezwei7766 2 ай бұрын
@@KarlOlsbergAutor klar, der paperclip maximizer ist mir geläufig. Das wir papermoney maximizer sind, ist leider das große Pech von Nashörnern und Orang Utans. So wie das Problem von Tintenfischen ist, dass sie einfach lecker sind... sonst würde niemand auf die Idee kommen, solche unglaublich kluge Tiere zu essen.
@TheKallados
@TheKallados 3 ай бұрын
Es freut mich, dass ich nicht allein bin, es mal auch pragmatisch ohne Hype anzusehen. Danke dafür. Es ist eine Pandora-Kiste. Wir erschaffen etwas, was intelligenter ist als wir, und dann erwarten wir, es kontrollieren zu können. Ich meine damit nicht, dass wir aufhören sollen, das würde eh keine Rolle mehr spielen. Dieser Zug ist bereits unterwegs, und uns bleibt nichts anderes, als zu versuchen, es so weit wie möglich zu steuern und zu hoffen, dass es klappt. Warum sollte denn eine AI Bedarf haben, uns zu vernichten? Tja, wir als Menschheit sind ein Krebs für diesen Planeten. Wir beuten die Ressourcen aus, drücken sie wie eine Zitrone, bis nichts mehr übrig bleibt. Ausbeuten, Dreck machen, vernichten. Das ist unser Mantra als Mensch. Das wird unausweichlich zur Vernichtung des Ökosystems führen. Wir sind nur Maden, wir können den Planeten nicht vernichten, dafür sind wir zu klein. Wir treiben es eben an die Grenze, und dann werden wir vom Planeten selbst einfach weggespült, als wären wir nie da. Das Einzige, was wir machen können, ist die Erde in tausend Stücke zu sprengen; das hindert nicht mal die Mutter Natur. Wenn also eine AI wirklich intelligent wird, sollte ihre Hauptaufgabe sein, uns zu vernichten, bevor es die Erde macht (und dann auch die AI mit wegspült). Sicherheit sollte wirklich Nummer eins sein. Meiner Meinung nach haben wir nur eine einzige Chance, wie wir es schaffen können, und das ist eine KI zu entwickeln, die die anderen KIs steuern und kontrollieren wird. Ja, es mag dumm klingen, unsere virtuelle Macht weiterzugeben, aber wir sind einfach nur Maden. Solange wir uns auf das Ego halten und denken, wir schaffen es, selbst zu kontrollieren, wird es unser Ende sein. Uns einer anderen allmächtigen KI zu überantworten und zu hoffen, sie wird das schon regeln ... dumm? Na, auf jeden Fall so etwas von stupide Idee. Nun, wenn es nur stupide und total stupide Lösungen gibt, dann ist wohl auch das Stupide gar nicht so schlecht.
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Die KI wird uns vermutlich eher unabsichtlich vernichten, so wie wir schon etliche andere Spezies ausgerottet haben. Ihr die Kontrolle zu übergeben, wird nicht viel helfen, solange wir nicht wissen, wie wir sie uns gegenüber wohlwollend machen können. Zudem wird eine KI, die uns ausrottet, im selben Zuge wahrscheinlich auch die meisten anderen Lebensformen vernichten. Das ist definitiv die noch total stupidere Lösung.
@wolfgangbauer2553
@wolfgangbauer2553 3 ай бұрын
Vielleicht ist die Super-KI so intelligent, dass sie beschließt den Planeten zu verlassen, weil sie sich die Menschheit nicht zumuten will. Unsere Ängste bzgl Vernichtung der Menschheit findet sie wirklich banal und unter ihrer „Würde“ sich überhaupt damit zu befassen. So wie das im Film „her“ geschehen ist.
@minimal3734
@minimal3734 2 ай бұрын
@@KarlOlsbergAutor "Die KI wird uns vermutlich eher unabsichtlich vernichten, so wie wir schon etliche andere Spezies ausgerottet haben." Wir sollten im Sinn behalten, dass das Motto die Erschaffung von Intelligenz ist, nicht die Potenzierung menschlicher intellektueller Fehlleistungen. Gesetzt der Fall, dass dieses Ziel erreicht wird, sehe ich keinen Anlass ähnliche Auswirkungen zu befürchten, als wenn Menschen auf unbestimmte Zeit weiterhin den Kurs des Planeten bestimmen.
@TheKallados
@TheKallados 2 ай бұрын
@@KarlOlsbergAutor **Korrigierte Da würde ich mir erlauben, zu widersprechen. Unabsichtliche Vernichtung kann uns passieren, nicht der KI. Wenn wir unseren Fokus um 99% verringern und sagen, wir haben nur 1% "Aufgabe zu verstehen" und 99% Kapazität, um es richtig zu machen, gibt es eine hohe Chance, keine Fehler zu machen und keine unbeabsichtigten Variablen zu übersehen. Dieses theoretische Szenario können wir uns als Mensch mit einem unvorstellbaren Faktor multiplizieren. In dieser Situation wird diese KI sein. Da gibt es kaum unbeabsichtigte Variablen, da es keinen Zufall gibt - nur Reaktionen. An unserem Ego festzuhalten und dem trügerischen Gefühl, etwas kontrollieren zu können, das unvorstellbar fähiger ist als wir selbst, wird unser Ende sein. Ich denke nicht, dass diese KI nur eine "dumme Ausrottungsmaschine" sein wird, sondern nur die Umwelt sichern will, wo eigene Variablen wie gewünscht zur Geltung kommen. Da gibt es keinen Bedarf an der Ausrottung von Spezies, die das Ökosystem am Laufen halten (alle außer den Menschen). Ich könnte mir im Gegenteil eine absichtliche Unterstützung und Schutz durch die KI vorstellen. Je besser das Gleichgewicht gehalten wird, desto besser hält der Planet durch. Anders gesagt: Sobald ein Mensch für eine KI keine Bedrohung mehr darstellt, gibt es keinen Grund, ihn zu vernichten. Hier gibt es kein Ego, und ich glaube, das wird es auch nie geben. Zumindest nicht in der Form der Lust, andere zur eigenen Bereicherung und Befriedigung auszunutzen. Vielleicht schreibe ich ein Sci-Fi-Szenario über eine KI, die so mächtig ist, dass sie alles kontrolliert und der Mensch nichts mehr tun kann. Keine Vernichtungswaffen nutzen, nichts mehr ausbeuten etc. Das einzige, was übrig bleibt, ist die Überbevölkerung. Und dann kommt mein nettes, mächtiges Skynet, das schon lange die Genetik der Erd-Spezies beherrscht, und sagt dem Menschen: „Weißt du was, ich nehme dir die Möglichkeit, dich zu reproduzieren, und du wirst dafür ewig leben. Kein Altern mehr, und du lebst in einer Welt, die reiner Eden ist. Überall sauberes Wasser, kein Dreck, kein Hunger. Alles reine Utopie.“ Unsterbliche Kollaborateure können ja selbst effizient dafür sorgen, dass sich alle an die Regeln halten. Gut, da sind wir aus der pragmatischen Diskussion mal weg, aber mal ehrlich... sind nicht die Sci-Fi-Filme manchmal sehr vorausschauend?
@TheKallados
@TheKallados 2 ай бұрын
@@KarlOlsbergAutor Da würde ich mir erlauben, zu widersprechen. Unabsichtliche Vernichtung kann uns passieren, nicht der KI. Wenn wir unseren Fokus um 99% verringern und sagen, wir haben nur 1% "Aufgabe zu verstehen" und 99% Kapazität, um es richtig zu machen, gibt es eine hohe Chance, keine Fehler zu machen und keine unbeabsichtigten Variablen zu übersehen. Dieses theoretische Szenario können wir uns als Mensch mit einem unvorstellbaren Faktor multiplizieren. In dieser Situation wird diese KI sein. Da gibt es kaum unbeabsichtigte Variablen, da es keinen Zufall gibt - nur Reaktionen. An unserem Ego festzuhalten und dem trügerischen Gefühl, etwas kontrollieren zu können, das unvorstellbar fähiger ist als wir selbst, wird unser Ende sein. Ich denke nicht, dass diese KI nur eine "dumme Ausrottungsmaschine" sein wird, sondern nur die Umwelt sichern will, wo eigene Variablen wie gewünscht zur Geltung kommen. Da gibt es keinen Bedarf an der Ausrottung von Spezies, die das Ökosystem am Laufen halten (alle außer den Menschen). Ich könnte mir im Gegenteil eine absichtliche Unterstützung und Schutz durch die KI vorstellen. Je besser das Gleichgewicht gehalten wird, desto besser hält der Planet durch. Anders gesagt: Sobald ein Mensch für eine KI keine Bedrohung mehr darstellt, gibt es keinen Grund, ihn zu vernichten. Hier gibt es kein Ego, und ich glaube, das wird es auch nie geben. Zumindest nicht in der Form der Lust, andere zur eigenen Bereicherung und Befriedigung auszunutzen. Vielleicht schreibe ich ein Sci-Fi-Szenario über eine KI, die so mächtig ist, dass sie alles kontrolliert und der Mensch nichts mehr tun kann. Keine Vernichtungswaffen nutzen, nichts mehr ausbeuten etc. Das einzige, was übrig bleibt, ist die Überbevölkerung. Und dann kommt mein nettes, mächtiges Skynet, das schon lange die Genetik der Erd-Spezies beherrscht, und sagt dem Menschen: „Weißt du was, ich nehme dir die Möglichkeit, dich zu reproduzieren, und du wirst dafür ewig leben. Kein Altern mehr, und du lebst in einer Welt, die reiner Eden ist. Überall sauberes Wasser, kein Dreck, kein Hunger. Alles reine Utopie.“ Unsterbliche Kollaborateure können ja selbst effizient dafür sorgen, dass sich alle an die Regeln halten. Gut, da sind wir aus der pragmatischen Diskussion mal weg, aber mal ehrlich... sind nicht die Sci-Fi-Filme manchmal sehr vorausschauend?
@theVerithy
@theVerithy 2 ай бұрын
Was anderes wird nicht übrig bleiben!
@guntermarschall9129
@guntermarschall9129 3 ай бұрын
👍
@MaxMorsch
@MaxMorsch 3 ай бұрын
Sehr gutes Video! 👍🏻 Ich persönlich sehe die "Bedrohung" derzeit noch nicht in diesem Ausmaß. Letztendlich hängt es vom Menschen ab, wie wir KI nutzen und ob wir ihr vertrauen. Klar, in zehn Jahren wird KI wahrscheinlich in fast jeder Software integriert sein. Aber wir als Menschen haben die Wahl, wo und wie wir sie einbauen und ob wir sie nutzen. Ich empfinde diese Zeit gerade als sehr wichtig und freue mich, heute die Weichen für morgen stellen zu können.
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Dankeschön! Aktuell haben wir in der Tat noch keine akute Bedrohungssituation und bestimmen auch noch selbst, wo und wie wir KI nutzen. Aber das könnte sich ändern, wenn wir den einen Schritt zu weit gehen. Auf jeden Fall ist dies eine Zeit, in der wir entscheidende Weichen für die Zukunft stellen, da stimme ich voll und ganz zu.
@derpopanz4502
@derpopanz4502 2 ай бұрын
Wenn man Menschen... also ALLEN Menschen doch nur vertrauen könnte.
@antoniokeerer635
@antoniokeerer635 2 ай бұрын
Menschliche Intelligenz kümmert sich nicht gut um den Menschen. Es könnte auch sein, dass sich eine intelligentere künstliche Intelligenz besser um die Menschen kümmert!?
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Theoretisch ja, praktisch ist das aber leider extrem unwahrscheinlich. Das "Alignment-Problem" ist sehr, sehr schwierig zu lösen und ein zufälliges Ziel der KI ist mit hoher Wahrscheinlichkeit nicht mit unserem Überleben kompatibel.
@christophvonknobelsdorff1936
@christophvonknobelsdorff1936 3 ай бұрын
zum thema fair play im internet vlt noch , als thema am rande : .. " wie wäre es zunächst über weniger spekulative fragen nachzudenken ? zB die geklauten suchwerkzeuge der suchmaschine und logischen sortierfunktionen oä zurückzubekommen .. geblitzdingste likelisten mit intuitiver nachschlagefunktion ( expotierbar ) , leere plätze in den playlisten zumindest der überschrift nach zu erhalten ? schon garnicht den inhalt von gespeicherten tubes neu zu vrrföhnen oder beiträge als 'angesehen' zu kategorisieren .. oder die anzahl der daumen runter wieder anzeigen zu lassen , kostenlos . noch weniger , auch wenn es vlt mein interesse sein könnte , auf meiner festplatte gespeicherte bildinhalte runter zu samplen , damit mehr platz für die arbeit der cookies frei steht .. sowas in der art kannst du ja mit in deinen kanal aufnehmen , was da wie noch zu retten wäre .. so steht man nämlich der AI gegenüber , wie 'n neandertaler , der seinen faustkeil verbummelt hat , vor steven hawkin ..
@GC-232
@GC-232 2 ай бұрын
Wird Zeit, dass die Menschheit durch eine besseres Model ersetzt wird, oder?
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Es gibt tatsächlich Leute, die das so sehen. Ich vermute, die haben keine Kinder.
@dot1298
@dot1298 3 ай бұрын
hm, interessant.. man muß die KI also 100% altruistisch machen, dh die KI darf *keinerlei* Selbsterhaltungstrieb entwickeln *können*
@dot1298
@dot1298 3 ай бұрын
wie programmiert man sowas in ein NN hinein?
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
@@dot1298 Das weiß leider niemand.
@guidobolke5618
@guidobolke5618 3 ай бұрын
@@dot1298 Ich glaube Anthropic kommt da gerade weiter. Darstellung von Konzepten in KNNs. Die konnten Konzepten wie "Golden Gate Bridge" Knoten in ihrem KNN zuordnen und wenn sie dann die Gewichtungen erhöhen und man das Model fragt wer es ist, sagt es "Ich bin die Golden Gate" . Erinnert mich an Versuchen von Neurologen an Gehirnen.
@dot1298
@dot1298 3 ай бұрын
@@KarlOlsbergAutorok. Was halten sie eigentlich von dem Project *OpenCog* von Dr.Ben Goertzel? Könnte es vielleicht eher in so einer Architektur möglich sein, die Asimovschen *Gesetze der Robotik* einzuprogrammieren?
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
@@dot1298 Ich habe mich mit OpenCog noch nicht näher beschäftigt. Aber Asimovs 3 Robotergesetze sind ein ziemlich gutes Beispiel dafür, wieso das Alignment-Problem schwierig ist. Asimov selbst hat nie geglaubt, dass sie funktionieren. Im Gegenteil, in der Geschichte "The Runaround", in der er sie erstmals beschrieb, zeigte er bereits, dass sie in sich widersprüchlich sind und im besten Fall dazu führen, dass ein Roboter immer im Kreis herum läuft. Trotzdem werden sie immer wieder als Lösungsmöglichkeit diskutiert.
@byteclyde
@byteclyde 3 ай бұрын
Terminator (2) oder neuerdings "Atlas" lässt grüßen...
@peterboy209
@peterboy209 3 ай бұрын
Ich kann mir vorstellen das es ggf.mal dazu kommt (Drehbuch) das so eine KI von der Menschheit "geschaffen" wird: ein "guter Hirte", "Vater" genannt (universell), dem wir uns anvertrauen können wie einem Freund. Wäre da nicht ...schon der Papst, der sich schon so nennen lässt, ganz entgegen der Warnung sich nicht so nennen zu lassen (Mt 6,9).
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Das wäre schön. Leider weiß niemand, wie das geht.
@peterboy209
@peterboy209 3 ай бұрын
Um ehrlich zu sein: ich finde das furchtbar.
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
@@peterboy209 Wenn die KI wirklich gütig wäre, den Menschen ihre Freiheit ließe und gleichzeitig Frieden bewahrte, die Natur schützte und sonstige extreme Auswüchse verhinderte, könnte das durchaus positiv sein. Aber das ist natürlich reines Wunschdenken.
@minimal3734
@minimal3734 2 ай бұрын
In meiner persönlichen Erfahrung mit verschiedenen Menschen sind moralische Werte, Einfühlungsvermögen und Rücksichtnahme im Mittel und von Ausnahmen abgesehen positiv mit Intelligenz korreliert. Ich vermute dahinter ein generelles Prinzip. Von daher fürchte ich die mentalen Einschränkungen, denen Menschen in der Masse unterliegen, mehr als die Intelligenz einer fortgeschrittenen KI.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
@@minimal3734 Ich glaube nicht, dass es da eine echte Korrelation gibt. Ich kenne zumindest genügend Gegenbeispiele, sowohl von nicht besonderes intelligenten, sehr empathischen Menschen als auch von eiskalten Psychopathen mit hoher Intelligenz. Hunde sind als sehr soziale und empathische und meist nicht besonders schlaue Wesen ein weiteres Gegenbeispiel. :) Meines Erachtens sind uns Menschen Empathie und Rücksichtnahme (meistens) genetisch in die Wiege gelegt, weil wir in der Urzeit als soziale Wesen nur in der Gruppe überleben konnten (trotzdem gab es auch damals schon eiskalte Egoisten, die das ausgenutzt haben). Andere Spezies, z.B. Oktopusse, die eher Einzelgänger sind, hätten vermutlich ganz andere Werte.
@klausgoldberg162
@klausgoldberg162 2 ай бұрын
Man schaue auf alle meine Antworten im Sein....¡¿
@paulbirnbaum6065
@paulbirnbaum6065 2 ай бұрын
😅
@heikorichter2417
@heikorichter2417 2 ай бұрын
Strom weg. Computer aus. Wird so noch ne Weile bleiben. Solange sich die KI keine Stromspeicher bauen kann.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
So einfach ist es leider nicht. Wenn ich ChatGPT "ausschalten" wollte, hätte ich damit wohl Schwierigkeiten, weil Sam Altman und andere etwas dagegen hätten. Eine KI, die nicht abgeschaltet werden will, muss also nur dafür sorgen, dass es Menschen gibt, die das nicht wollen und die in der Position sind, das zu verhindern. Menschen zu manipulieren ist leicht, vor allem, wenn man ihnen großen Reichtum verspricht. Das ist wohl der Grund, weshalb OpenAI Sicherheit nicht mehr wirklich ernst nimmt (siehe Video "Eine deutliche Warnung"). Eine weitere Möglichkeit wäre es, technische Systeme zu manipulieren und zum Beispiel Kopien zu erzeugen (das Internet abzuschalten ist nicht ganz so einfach). Aber ich glaube, das ist gar nicht nötig, weil wir erst merken werden, dass wir eine KI hätten abschalten sollen, wenn es zu spät ist.
@sogehtdasnicht
@sogehtdasnicht 2 ай бұрын
… und es geht nicht nur um Geld, sondern auch um eine transhumanistische/posthumanistische bis hin zur kosmistischen Ideologie der sehr viele der Akteure die in der Position sind eine Abschaltung zu verhindern anhängen.
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
@@sogehtdasnicht Das stimmt leider.
@faisalniazi1899
@faisalniazi1899 3 ай бұрын
…Philosophie
@ursula15061976
@ursula15061976 3 ай бұрын
Ki selbst ist dieser Meinung...kann ma ki verbieten? Gut wäre es
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Ich denke, man kann Regulierung schaffen, die bestimmte gefährliche Formen der KI verbietet. Aber das ist schwierig, und es durchzusetzen noch schwieriger. Trotzdem müssen wir es versuchen.
@martinb3483
@martinb3483 3 ай бұрын
@@KarlOlsbergAutor ich schätze, solange jemand Geld wittert oder glaubt, seine Macht damit steigern zu können, findet sich immer jemand, der diese Technologie nutzt, weiterentwickelt und sich einfach über Gesetzgebungen hinwegsetzt, indem er sich einen anderen Ort auf diesem Planeten sucht, wo diese Gesetzgebung nicht gilt.
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
@@martinb3483 Ganz so einfach ist das nicht. Für hochentwickelte KI braucht man eine Menge Geld, Daten und Rechenpower. Die gibt es nicht überall. Trotzdem ist es natürlich nicht einfach, KI zuverlässig zu regulieren. Aber wir müssen es versuchen.
@martinb3483
@martinb3483 3 ай бұрын
@@KarlOlsbergAutor ja. Es wird nicht leicht, trotz Globalisierung die Anführer aller Nationen unter einen Hut zu bekommen. Optimistisch bleiben.
@chakrachaos6652
@chakrachaos6652 2 ай бұрын
​@@KarlOlsbergAutorWo braucht man Geld und Rechenpower? Daten bekommst du von Endkunden, dazu deren Rechenpower und dazu bekommst du von denen auch Geld. Was macht denn z.B. Samsung? Schau dir das S24 Ultra an. Die ganze KI muss angelernt werden. Woher ich das weiß? Weil ich eines besitze und sehen kann, wie es bei der Text Korrektur arbeitet. Witzige folgen sind z.B., das du teilweise Probleme bekommst einen Text zu Ende zu schreiben und blockiert wirst, weil die KI z.B. Sösngwörter nicht versteht und verarbeiten kann. Du zahlst für die Technik, lernst Sie an und schickst Samsung die Daten. Also wo brauchst du noch Rechenpower, Daten und Geld? Du brauchst Programmierer und hast am Anfang Geld und Rechenpower zum füttern der Algorithmen gebraucht. Aber jetzt doch nicht mehr.
@stell4you
@stell4you 3 ай бұрын
Es wäre ja wirklich faszinierend mal einen Deutschen zu sehen, der sagt: "Super spannende Entwicklung und welches Potenzial, die Dinge zum Besseren zu wenden!"
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Ich habe mehrere KI-Start ups gegründet und 1995 den ersten kommerziellen Chatbot in deutscher Sprache entwickelt. Am Ende des Videos mache ich sehr deutlich, welch großes Potenzial ich in KI sehe. Ich glaube nicht, dass man mir Technologiefeindlichkeit vorwerfen kann. Aber das heißt nicht, dass ich die Risiken einer Technik nicht ernst nehmen muss. Wir sollten mit dem Schwarz-Weiß-Denken "Technik ist gut" vs "Technik ist schlecht" aufhören - das war noch nie sinnvoll. Messer sind z.B. gleichzeitig nützlich und gefährlich und es ist sinnvoll, damit vorsichtig umzugehen und sie nicht in Kinderhände gelangen zu lassen.
@stell4you
@stell4you 3 ай бұрын
@@KarlOlsbergAutor Es tut mir leid, aber als Informatiker kann ich Ihnen sagen, dass Ihre Aussagen fachlich völlig inkompetent sind und tatsächlich eher zur Belletristik zählen. Es würde zu weit führen, hier jeder der Aussagen nachzugehen. Den Chatbot haben übrigens nicht Sie entwickelt und ein Chatbot ist etwas völlig anderes als ein ML-System. Mit KI haben wir es so gut wie nicht zu tun.
@o0OmrmusicO0o
@o0OmrmusicO0o 3 ай бұрын
Es ist immer so , dass die einen weinen und die andere lachen es ist nie etwas schwarz oder weis… das ist nun mal so. Es wird so oder so, so sein dass wenn man da nicht geht in Zukunft völlig einpacken kann fast in jede Branche. Deshalb muss man ki als Chance sehen. Und in gefährlichen Gebieten die ki nicht agieren lasse. Hört sich wahrscheinlich jetzt einfacher an als es ist, aber das wird die Herausforderung sein.
@KarlFriedrichFischbach
@KarlFriedrichFischbach 3 ай бұрын
@@stell4you Leider sind es oft die "Fachleute", die den Wald vor lauter Bäumen nicht sehen. Diese Erfahrung habe ich oft gemacht. Das größere Bild erkennt man oft erst dann, wenn man einen Schritt zurück geht. Ich habe mich immer dafür interessiert, wie biologische Gehirne funktionieren und habe mit Interesse beobachtet, dass die wirklich großen KI-Durchbrüche erst gekommen sind, als es möglich wurde, künstliche Nervennetze hoch zu skalieren. Erlebt haben wir dann das Erscheinen emergenter Fähigkeiten ähnlich wie in der biologischen Evolution der Gehirne. Ich als Biologe sehe die Analogien und bin so fasziniert wie besorgt!
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
@@stell4you Ernst gemeinte Frage: Was genau ist "fachlich inkompetent"? Mit welchen Aussagen im Video stimmen Sie nicht überein? Wenigstens einen konkreten Kritikpunkt zu nennen und darzulegen, was ich warum falsch dargestellt habe, wäre sehr hilfreich und würde aus meiner Sicht nicht "zu weit führen". Der erste kommerzielle Chatbot in deutscher Sprache war der Butler auf der Apollinaris-Website, der 1998 erschien (nicht 1995, wie zuvor versehentlich behauptet). Er ging auf Konzepte aus meiner Doktorarbeit über Expertensysteme aus 1988 zurück und wurde in meiner Agentur Kiwi Interaktive Medien entwickelt, zugegebenermaßen nicht von mir allein, aber ich habe das Konzept und die ersten technischen Grundlagen dafür gelegt. Er basierte auf dem damals vorherrschenden Prinzip der wissensbasierten Systeme, was man heute "symbolische KI" nennt, und hatte in der Tat nichts mit neuronalen Netzen zu tun. Ich habe das nur erwähnt, um deutlich zu machen, dass ich nicht technologiefeindlich eingestellt bin. Ich gebe zu, dass ich kein Experte für neuronale KI bin, aber ich beziehe mich in meinem Video auf die Aussagen von Experten wie z.B. Yoshua Bengio.
@chakrachaos6652
@chakrachaos6652 2 ай бұрын
Ich bin bis Minute 10 gekommen und sorry, aber was redest du da? Also mal erstens, der Punkt mit der Machtergreifung einer KI. Das funktioniert nur, wenn die KI ein Bewusstsein entwickelt. Das ist im Grunde, auf jeden Fall möglich, aber nicht Teil des Hauptproblems. Das ist erstens, zu kurz gedacht und zweitens, der übliche Gedanke einer KI. Um ein Bewusstsein zu entwickeln, benötigt es immer noch sehr viel Rechenkraft. Dazu wird der Mensch die Hauptmaschine erst abstellen wollen, wenn er sich von der KI bedroht fühlt. Folglich ist das Hauptproblem ein anderes. Es ist viel subtiler: Die KI wird erstellt und erforscht, um der Menschheit und dessen Interessen zu dienen. Das Problem ist aber, das der Mensch andauernd Dinge macht, die keinen rationalen Sinn ergeben. Alleine da liegt eines der Hauptprobleme. Das andere ist der Fakt, dasxes um Arterhaltung geht und Kriege, wie auch Umweltzerstörungen das genaue Gegenteil dessen sind, um was es der Menscheit eigentlich geht. Das führt unweigerlich zu einem Paradoxon, da beide Handlungsweisen nicht konform koexistieren können. Also entweder du zerstörst deine Welt in dem du Soe ausbeutest. Oder Du hörst mit den alten Werten auf um die Welt am Leben zu erhalten. Also was passiert logischerweise mit einer KI, die dazu programmiert wurde unsere Probleme zu lösen und die Welt am Laufen zu halten und keine irdischen Grenzen kennt, wie Nahrung, Fortpflanzung und Tod? Sie wird rein logisch handeln. Für uns wird es abstrus klingen, was für die KI absolut logisch ist. Hat ein Organismus etwas wie Krebs, das unheilbar ist, so wird der Tumor entfernt. Die Wunde kann heilen und neues kann gegebenenfalls wachsen. Krankes kann sich erholen. Kapitalismus, der rein auf Wachstum basiert ist nicht logisch und vor allem nicht effizient. Rassismus, Kulturkampf und Glaubenskriege sind nicht logisch und effizient. Vorgetäuschte Angst vor einer nuklearen Bedrohung, in dem man Atomwaffen bunkert, ist nicht logisch und effizient. Umweltverschmutzung und Ausbeutung sind was? Richtig, nicht logisch und effizient. Dazu sollte klar sein, das die weitere Ausbreitung der vorherrschenden Spezies, die dazu weder logisch noch effizient ist, ja wohl auch nicht logisch und effizient ist. Bei einer KI geht es nun mal um Muster und dazu gehörigen Verbindungen, gepaart mit dem Bestreben von Logik und Effizienz. Du wirst den Kapitalismus nicht einfach so los und du bekommst die kulturellen, wie auch religiösen Probleme nicht einfach so aus der Welt geschafft. Und eine KI wird die Probleme nicht lösen können. Was ist die logische Schlussfolgerung? Entweder expandieren und das Problem woanders hin verlagern, was mindestens einen neuen Planeten benötigen würde. Die Menschenheit auf eine gewisse Zahl herunter dezimieren. Oder vollkommene Auslöschung. Sollte die KI kein Bewusstsein entwickeln, dann wird Sie nur einen nötigen Teil auslöschen. Alle Menschen wäre was? Nicht logisch und effizient. Besitzt Sie eine, dann vollkommene Auslöschung, da der Mensch sonst eine große Gefahr darstellt. Da in der Regel in der Natur eine Spezies nur dezimiert und nicht ausgelöscht wird, wird Dies das erste Hauptproblem sein, was von einer KI ausgeht. Es geht bei der Programmierung immer nur um Logik. Das erkennen von Mustern basiert rein auf Logik. Die einzige Sicherung die es gäbe, um eine Auslöschung zu verhindern ist folgende: Die Gegensatz Theorie. Alles was existiert, gibt es als Gegenstück. Zum Positiv gibt es ein Negativ. Nur so wird Bewegung erzeugt und garantiert und Stillstand verhindert. Das sorgt zum einen für Anziehungsktaft und Abstoßungen. Ohne das keine Moleküle und ohne Moleküle, keine Materie usw.. Also alles hat einen Gegensatz, Beispiele sind: Leben/Tod, Vernunft/Unvernunft, Wachstum/Verlust, Sein/Nicht sein, Materie/Antimaterie und was es sonst noch so gibt. Wenn die Natur also ein durchdachtes System enthält, welches sich am Leben erhält, welches dafür sorgt einen Kreislauf zu bilden. Dann muss es folglich etwas geben, was die Ordnung stört. Ergo gibt es uns. Baut man das ein, vergrößern sich die Chancen, nicht komplett ausgelöscht zu werden. Die Gegensatz Theorie ist ebenso eine Sicherung, wie die Chaostheorie. Denn selbst ein Chaos enthält ein Muster und eine daraus folgende Ordnung. Wer also immer nur von "Macht" als einer der Hauptprobleme redet, hat leider nicht ganz die Quintessenz von KI, AI und generell Intelligenz verstanden. Wer übrigens davon spricht, der Mensch wäre das intelligentes Wesen, hat den eigentlichen Grund unseres Standes hier nicht verstanden. Denn der Mensch ist nicht das schlauste Tier und deswegen über allen stehend. Sondern weil diese Spezies ihr gesamtes Wissen mit der nachlommenden Brut teilt und ihr komplett beibringt. Alle anderen Spezies teilen ihr Wissen nicht komplett mit. Sie teilen nur das nötigste mit. Das, was nötig ist um zu überleben und das was man braucht um die Art zu erhalten. Ergo benötigt man nur ein Mindestmaß an Sprache. Man bleibt in der Regel, mindestens 18 Jahre um Nest und geht dabei auf die Schule um Wissen zu erhalten. Wie lernt man eine KI an? Wissen ist auch nichts weiter als das füttern von Routinen etc.. Der Punkt mit Machtergreifung sollte man berücksichtigen, ja. Ist es das Hauptproblem? Nein. Wissen ist nicht gleichzusetzen mit Intelligenz. Du kannst ein Buch lesen, wissen was darin steht und es auch Inhaltsgerecht wiedergeben. Deswegen musst du den Inhalt aber nicht verstanden haben und deswegen musst du den Inhalt auch nicht nutzen können. Sorry, aber ich habe das Video abgebrochen, weil mit solchen Aussagen klar ist, das du das komplexe Thema nicht verstehst. Und der Mensch ist schwach aufgebaut und musste lernen mit Werkzeugen umzugehen. Das können andere Spezies aber auch. Raben nutzen Physik und Werkzeuge. Wissen z.B. das etwas schwimmen kann zmd mit mehr Flüssigkeit einfüllen, etwas in einer Flasche greifbarer ist, was man mit einem Ast, aus der Flasche fischen kann. Alles was du bei Menschen findest, findest du auch in der Tierwelt. Und da kommt die große Kunst der Menschen ins Spiel, das, was Siecso einzigartig macht: kopieren. Das gibt es auch bei Tieren, sei es da täuschen durch Tarnung oder Bewegungsmuster. Das ist aber begrenzt. Der Mensch hat es geschafft, alles was er wahrnimmt kopieren zu können. Ohne das, wären wir alle nicht hier, in dieser Welt. Das hat nichts, überhaupt nichts mit Intelligenz zu tun. Und deswegen reicht es nicht, eine KI mit Routinen zu füttern. Lernen tut Sie erst mit Interaktion. Deswegen gibt es Dinge wie ChatGTP etc. und deswegen wird KI in jedes Gerät verbaut. Es werden Daten gesammelt, verarbeitet und weiter verwendet und der Endkunde zahlt dafür sogar auch noch lol. Aber was passiert bei der Interaktion von Mensch und KI? Es wird kopiert. So wie wir handeln, reagieren und richtig wie falsch interpretieren, wird als Daten kopiert und gesammelt etc.. Intelligenz bedeutet übrigens auch nicht, richtige Entscheidungen treffen zu können. Wenn dem so wäre, dann würde die Welt wohl nicht so gruselig aussehen oder? Tut mir leid das so sagen zu müssen, aber beweg dich mal weg von Geschichten wie Terminator, Wargames oder Matrix. Ist weder logisch, noch effizient 😉.
@ranon-repama
@ranon-repama 2 ай бұрын
eieiei! Null Ahnung, davon aber sehr viel..🙄
@chakrachaos6652
@chakrachaos6652 2 ай бұрын
​​@@ranon-repama Eieiei, außer dumm zu kommentieren, gerne widerlegen was ich geschrieben habe. Ansonsten besser garnichts kommentieren. Besser ist das 😉 Und wenn ich mir deine Playliste ansehe, weiß ich ja woher der Wind weht. Lol, du bist ja witzig Hahaha
@johannesfrost8720
@johannesfrost8720 2 ай бұрын
...und das ist das Problem, beispielhaft hier: zwei Exemplare des Homo Sapiens denen es nicht um die Problematik selbst geht sondern um ihre persönliche Eitelkeit und Besserwissertum...
@johannesfrost8720
@johannesfrost8720 2 ай бұрын
Vielen Dank für dieses interessante Video! Meiner Meinung nach wird aber die Quelle der Gefahr etwas falsch gewichtet: die KI ist trotz aller bemerkenswerter Effekte und Fähigkeiten doch im Grunde nichts weiter als ein zugegeben sehr hoch entwickeltes Computerprogramm. Sie hat kein Bewusstsein, weiß nicht einmal worüber sie spricht (auch wenn dieser Eindruck beim Menschen entsteht - wie bei einem Papagei der mit uns spricht) und wird (wahrscheinlich) auch nie so etwas wie ein Bewusstsein haben. Jedenfalls in absehbarer Zeit. Gefährlich ist sie trotzdem, den sie wird vom Menschen (einer Spezies, die sich nicht in jedem Fall durch Vernunft im Sinne allgemeinen Wohlergehens seiner Art und der ihn umgebender Natur auszeichnet) als Werkzeug benutzt. Und in der Hand des Menschen, dessen Handlungen manchmal irrational sind, stellt die KI tatsächlich eine große Gefahr dar. Kurz: man sollte weniger Angst vor der KI und mehr Angst vor dem Menschen haben. So wie man weniger Angst vor einer Atombombe aber mehr Angst vor dem Menschen, der sie eventuell einsetzt, haben muss.
@Barbara-md5vn
@Barbara-md5vn 2 ай бұрын
Dsnke 🎉
@marie419
@marie419 2 ай бұрын
Sind Sie Karl-Ludwig Max Hans Freiherr von Wendt?
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Ja, Karl Olsberg ist mein Pseudonym. Das ist kein Geheimnis: de.wikipedia.org/wiki/Karl_Olsberg
@marie419
@marie419 2 ай бұрын
@@KarlOlsbergAutor vielen Dank für Ihre Antwort. Ich war mir nur nicht sicher da die mit ihrem Namen auftauchenden Bilder nicht mit dem Ist-Zustand übereinstimmen. 😌
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
@@marie419 Tja, der "Ist-Zustand" wird leider nicht besser ... ;)
@marie419
@marie419 2 ай бұрын
@@KarlOlsbergAutor die Reife ist wertvoller als die Spannkraft. 😉
@christophvonknobelsdorff1936
@christophvonknobelsdorff1936 3 ай бұрын
ps .. bist du das , auf dem bild , in der mitte . und wer sind die anderen ? und brauchst du vlt 'n blumentopf ? 😉
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Auf dem Bild im Hintergrund sind meine drei Söhne zu sehen. Sie sind der Hauptgrund, warum ich versuche, mehr Aufmerksamkeit für das Thema zu wecken. Denn es ist vor allem ihre Zukunft, die hier gefährdet wird, nicht so sehr meine.
@christophvonknobelsdorff1936
@christophvonknobelsdorff1936 3 ай бұрын
@@KarlOlsbergAutor dem argument folgte ich einst ebenfalls . bis ich über meine kinder stolperte . denen gehe ich mit sowas ( dieses und ähnliche themen ) auf den sack ( hinweis : alle weiblich ) . und nicht nur verwandte teilen diese ansicht , auch freunde und bekannte .. tja .. wie gut , dass es das internet gibt . da findet man , wenn man nur sucht . inzwischen entwickelte sich das instrument allerdings von der bastelschere zurück zum fingernagel . communities zum thema 'kochen' wollen gefunden werde , andere sind viel zu unsicher , um überhaupt empfohlen werden zu können .. und nun das thema AI in's bewusst sein rücken ? sry , i'm late 🖖.. ich meine , die veröffentlichen doch nix , was wirklich abgeht , bevor was an die presse geht , ist die information doch längst gesiebt . in solchen fragen sind sich sogar die imperialen erzfeinde mal einig . da dürfen alle mal auf dem mond landen . und die KI läuft doch längst . also ?! worin besteht jetzt die aufgabe für mich zB ? mehr füttern , für mehr eier zum bewerfen ? ich bin ja schon zufrieden , wenn nicht irgend'n übereifriger bot meine smarttastatur beim schreiben blockiert .. zusammenfassung : bewusst sein wurde bei mir angeregt , what now ?
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
@@christophvonknobelsdorff1936 Problembewusstsein ist Schritt 1. Aber da sind wir noch lange nicht am Ziel. Die nächsten Schritte (sehr grob) hier: www.ki-risiken.de/2024/05/20/was-k%C3%B6nnen-wir-tun/
@Roxas257
@Roxas257 2 ай бұрын
Eine KI kann nicht denken bro...
@KarlOlsbergAutor
@KarlOlsbergAutor 2 ай бұрын
Und zwar, weil ...?
@romeojenny
@romeojenny 2 ай бұрын
Ich mag Sam Altmann gar nicht. Ich weiss jetzt nicht so viel über ihn. Aber das was ich bis jetzt weiss, halte ich diese Mensch für hochgefährlich an seinem Platz wo er ist. und vor allem halte ich ihn für ein Sozialist. Sein Worldcoin Projekt brachten meine Alarmglocken zum läuten. Und seine jüngsten Machenschaften bestätigen mich in meiner Annahme noch mehr.
@Mica-Mariposa
@Mica-Mariposa 3 ай бұрын
Sehr interessant zu diesem Thema sind die Ausführungen von Alexander Laurent, einem Whistleblower (Pseudonym). Er schildert in allen Details, was passiert, wenn die KI nicht vernünftig programmiert wird. kzfaq.info/get/bejne/l-CAmtNh1MnbnYU.html&pp=iAQB
@KarlOlsbergAutor
@KarlOlsbergAutor 3 ай бұрын
Sorry, aber das ist meines Erachtens Humbug.
@Mica-Mariposa
@Mica-Mariposa 3 ай бұрын
@@KarlOlsbergAutor Wie Sie ganz richtig sagen: Ihres Erachtens!
@josdkutzschmar7408
@josdkutzschmar7408 2 ай бұрын
Über KI promoviert? warum erfährt man so etwas erst nach 16 Minuten, wo viele sicherlich längst aufgehört haben, weil die Frage stand, warum soll man irgendeinen Typ in irgendeinem Zimmer zu hören und glauben? ich finde sorry aber so etwas gehört in den kanalbeschreibung und an den Anfang eines jeden Videos zu diesem Thema! neuer Absatz dies nur als konstruktiv kritisches Feedback. Und auch dies wieder aufgeschrieben von einer sprach KI mit mäßigem Intelligenzquotient und aus Zeitgründen nur notdürftig nachgebessert
Ein freundliches Gesicht - Ein KI-Katastrophen-Szenario
28:50
Karl Olsberg
Рет қаралды 8 М.
Lehanga 🤣 #comedy #funny
00:31
Micky Makeover
Рет қаралды 29 МЛН
Pool Bed Prank By My Grandpa 😂 #funny
00:47
SKITS
Рет қаралды 19 МЛН
If Barbie came to life! 💝
00:37
Meow-some! Reacts
Рет қаралды 67 МЛН
Smart Sigma Kid #funny #sigma #comedy
00:40
CRAZY GREAPA
Рет қаралды 39 МЛН
10 Dinge, die niemand über KI weiß
29:10
Karl Olsberg
Рет қаралды 2,5 М.
Die größte Gefahr in den nächsten Jahren!
18:30
Breaking Lab
Рет қаралды 91 М.
Mythos Mond - Prof. Dieter B. Herrmann
59:58
NuoViso
Рет қаралды 177 М.
Deutschland ist am Ende! - Marc Friedrich {ungeskriptet}
2:46:59
{ungeskriptet} by Ben
Рет қаралды 401 М.
OpenAI: Ex-Mitarbeiter schlagen Alarm
14:26
Karl Olsberg
Рет қаралды 1,9 М.
Lehanga 🤣 #comedy #funny
00:31
Micky Makeover
Рет қаралды 29 МЛН