- WERBUNG -

Künstliche Intelligenz und ihre Gefahren

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Künstliche Intelligenz und ihre Gefahren

    Hallo Kollegen,

    habe heute etwas gehört von potentiellen Gefahren für die Menschen die nach wahrscheinlichkeit wie folgt aufgelistet waren.

    • Künstliche Intelligenz
    • Menschen gemachte Pandemie
    • Natürliche Pandemie
    • Atomare Auseinandersetzung
    • Atomarer Unfall

    falls ich einen link zu Quelle finde poste ich ihn noch hab es selbst nur in einem Kommentar gehört.

    mir geht es jetzt eigentlich konkret darum

    mit Pandemien hat man sich etwas vertraut gemacht die letzten Jahre.
    Auch durch die Ukraine Vorkommnisse hat man atomare Zwischenfälle in Erwägung gezogen.

    ich wollte mich nun in Bezug auf KI mal mit euch austauschen.

    wo könnten gefahren entstehen?
    Wie sehen aktuelle Gefahren aus?
    Was kann man tun um vorzusorgen?

    vllt hat jemand von euch ja tiefere Einblicke in die Materie.

    gefüllt und überspitzt gesagt driftet unsere Gesellschaft immer weiter in digitale Abhängigkeit oder in primitive Unabhängigkeit.

    bin auf eure Meinungen und Sichtweisen gespannt.
  • Das erste mal wo ich mir ernsthaft zu dem Thema Gedanken gemacht habe war beim Kinofilm „I-Robot“,
    Dort wird von den „Geistern in der Maschine“ gesprochen, wenn zufällige Codefragmente aufeinandertreffen. Ich halte es für durchaus wahrscheinlich das es fälle geben wird wo dies für eine größere Katastrophe sorgen kann.

    Es gibt gerade aus dem „Mechanischen Bereich“ Genügend Beispiele das viele Katastrophen erst entstehen wenn ein paar Faktoren zusammen kommen.

    Beispiele:
    Gas allein geht gerade noch, aber mit einem winzigen Funken gibt es eine Katastrophe, hier reicht es wenn einer an der Tanke sein Handy fallen lässt, und die Benzindämpfe explodieren.
    Tschernobyl: Wäre an den Spitzen der Steuerstäbe keine Graphitblöcke angebracht gewesen, sondern eine andere Konstruktionsweise, hätte das Unglück vermutlich noch verhindert werden können.
    Ich bin der festen Überzeugung das solch „kleine“ Fehler auch bei der besten Software/KI geschehen, selbst wenn die „Software“ noch korrekt ist, wer garantiert das sich der Intel Pentium FDIV Bug nicht wiederholt und eine Katastrophe auslösen kann? Sicherlich ist dieser Fehler auch ein gutes Beispiel, das die Grenze zwischen „Software“ und „Hardware“ Fehler fließend ist.

    Zurück zu I-Robot:
    Ein Bestandteil des Filmes war ja, das die KI mit ihrer Roboterarmee die Menschen zuhause einsperren wollte, um ihnen ein sichereres Leben zu ermöglichen. Wer garantiert das bei einer KI sämtlichen „Kreativen“ Ideen um dem Menschen das Leben besser/Sicherer zu machen kontrolliert, bzw. berücksichtig wurden ?

    Gab es schon „Kreative“ KI Ideen?
    Viel bekannt ist nicht, ich möchte nicht wissen auf was die KI’s in den Laboren schon alles gekommen sind, vermutlich aber einiges wo die Verantwortlichen nie in der Öffentlichkeit sagen werden.

    Bisher ist mir nur ein Fall bekannt, wo so etwas in die Öffentlichkeit kam, allerdings wurden die Berichte auch schon „zurückgewiesen.
    Ob die KI, in ihrer Kampfjet Simulation nun den Operator getötet hat oder nicht, wird wohl nie eindeutig geklärt werden, auf heise.de gibt es aber einen schönen Bericht, inklusive der „Korrekturen“
    heise.de/news/Simulation-KI-Dr…emaximierung-9162641.html

    Grundsätzlich bin ich aber KI’s welche mit der Außenwelt Interagieren können gegenüber extrem Kritisch eingestellt, egal ob die Interaktion über Maschinen oder nur über Worte stattfinden kann.

    Bei der Reinen „Datenauswertung“ ohne Interaktionsmöglichkeit mit der Außenwelt, kann die KI aber sicher dem Menschen eine Wertvolle Hilfe sein.

    Weiterführende Infos:
    Pentium-Bug : de.wikipedia.org/wiki/Pentium-FDIV-Bug
    Tschernobyl Graphit Stäbe (In der Chronologie ab 01:23:40 de.wikipedia.org/wiki/Nukleark…n_Tschernobyl#Chronologie
  • Als ITler kann ich dir sagen: Von einer wirklich eigenständig handelnden, sich selbst bewussten und unspezialisierten KI (heißt die KI wäre in der Lage, neue Fähigkeiten selbstständig zu entwickeln und somit ein Allround-Talent zu werden, wie es Menschen sind) sind wir noch Jahrzehnte, wenn nicht Jahrhunderte entfernt.
    Ja, das was Sprachmodelle wie ChatGPT machen, ist schon beeindruckend, aber es ist eben nur ein Sprachmodell und kann nicht selbstständig denken. Ein solches Sprachmodell sucht nur auf sehr kluge Weise das statistisch beste nächste Wort um einen Satz zu formen. In den nächsten Jahrzehnten werden wir Verbesserungen solcher Modelle erleben. Es kann durchaus auch sein, dass Menschen durch KI z.B. am Arbeitsplatz unterstützt, oder sogar ersetzt werden, wenn die Menschen keine allzu kreative Aufgabe erfüllen. Aber eine Gefahr durch eine KI, die ein Bewusstsein entwickelt, ist erstmal nicht zu sehen.

    Grundsätzlich: Das Entwickeln eines KI-Modells ist hochkomplex und nicht umsonst gibt es nur eine Hand voll Unternehmen auf der Welt, die sich damit beschäftigen. Aber auch, wenn man ein fertiges Modell nimmt und dieses nur noch auf sein Problem trainiert (das ist das, was die meisten machen, die sich mit KI beschäftigen), ist das extrem viel Aufwand. Man braucht je nach der Komplexität seines Problems tausende bis millionen von Datensätzen, die man in einem langen manuellen Prozess der KI vorlegen muss.

    Wo aber eine echte Gefahr von KI liegt ist, dass KIs immer besser darin werden, Deep Fakes zu erstellen. Es wird in wenigen Jahren kaum noch möglich sein, ein(e) echte(s) Foto, Video, Tonaufnahme von einem KI-Generierten zu unterscheiden. Das, zusammen mit mangelnder Medienkompetenz in der Bevölkerung ist eine sehr gefährliche Waffe.

    Noch eine Gefahr ist, wenn KI als unfehlbar angesehen wird und in technischen Systemen die Entscheidungsgewalt bekommt. Wenn KI z.B. dazu eingesetzt wird, zu entscheiden, wann Atomraketen abgeschossen werden, dann muss man damit rechnen, dass die KI eine Situation fehlbewertet und irrtümlich zu dem Schluss kommt, dass die Atomraketen abgeschossen werden müssen. Im Gegensatz zu klassischer Computersoftware lässt sich KI auch nicht gut mathematisch auf Fehlerfreiheit untersuchen (das ist auch bei klassischer Software schon nicht einfach, wird aber für Software, bzw. Algorithmen in dieser Software, die lebenswichtig sind gemacht)

    Ein weiteres Problem an KI ensteht, wenn die Trainingsdaten nicht sorgfältig ausgewählt werden. So kann man z.B. in Bilderzeugenden KI derzeit meist nur "hübsche" Menschen (heißt, guter Körperbau, keine Schönheitsfehler, etc) erstellen. Das liegt einfach daran, dass es im Internet deutlich weniger Bilder von Menschen gibt, die sich für nicht so schön halten. Dementsprechend verzerren diese KI die Realität.
  • Die nächsten Jahre werden Interessant... :/

    Nehmen wir mal an die KI und Technologien drumherum nehmen weiter zu, und Sie entwickeln und programmieren mehr und mehr Computer, die die Arbeit Besser und Schneller erledigen können als Menschen, geben wir den Maschinen jetzt die Freiheit eigenständig Entscheidungen zu treffen ohne Eingriff und Überwachung des Menschen, ist es unmöglich voraus zu sehen wie sich dieses entwickeln wird, und unser Schicksal liegt in der Hand einer Maschine und nicht mehr in der Kontrolle von Menschen.

    Es wird nicht mal die Böse KI sein, die die Macht ergreift um alle Menschen zu versklaven, wie es gern in Filmen gezeigt wird, sondern Menschen werden die Kontrolle ganz freiwillig abgeben, einfach aus Bequemlichkeit, an diesem Punkt sind wir als Gesellschaft schon, ein paar Schritte weiter und wir hängen in der Abhängigkeit von immer intelligenter und selbstständiger werden Computern/Algorithmen/Ki, die immer schneller, bessere und effizientere Arbeit leistet, und die Menschliche Autonomie nimmt immer weiter ab.
    Ab einem Punkt werden alle wichtigen Entscheidungen, sei es in der Wirtschaft, Gesellschaft oder im privaten Bereich von KI getroffen um ein immer Schneller und komplexer werdenes System am Laufen zu halten, und diese kann man dann auch nicht mehr abschalten oder zurück zu Schrauben, das wäre Selbstmord.

    Wem gehört die KI und wer Kontrolliert diese?!, Tech Giganten sind jetzt schon mächtiger und Einfluss reicher als Regierungen, welche jetzt aber auch nicht Vertrauensvoller sind im Umgang mit KI und der Technologie.

    Ist ein Riesiges und komplexes Themen feld und dazu ganz dünnes Eis :/

    Habe mal was von dem ethische Dilemma selbstfahrender Autos gelesen, bin mir aber nicht sicher wie jetzt der Stand der Dinge ist, und die Autokonzerne es lösen wollen.
    Fall Beispiel ist ein nicht abzuwendener Unfall, kracht das Auto jetzt gegen die Wand und tötet seinen Fahrer/Besitzer oder fährt es den Fußgänger Tod.

    Persönlich stehe ich dem ganzen Kritisch gegenüber, es ist immer wieder das selbe... erst ist es ein kleines Gadget, dann wird es Freiwillig und später zur Pflicht! dieses wird einem dann als "Progress" verkauft, weil technologischer Fortschritt im Narrativ immer Gut ist... Die Bequemlichkeit lockt und am Ende stirbt die Autonomie und Freiheit.

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Trolljaeger ()

  • Moin.

    Also ich kann mir auch schlecht diese
    "über Intelligenz" vorstellen, die eine Gefahr für unsere Spezies darstellt. Zu mindest in der mittelbare Zukunft.
    Was ich aber sehr wohl als Gefahr sehe ist die Schnittstelle Mensch/Maschine.
    Protesen die auf Nervenimpuls reagieren,
    Linsen die Blinde wieder sehen lassen oder auch nur Daten anzeigen. Datenchips die man sich implantieren kann, um sich auszuweisen oder Transaktionen vor zu nehmen. Elektronische Stimmulanzien am Herzen oder am Hirn. Ect. Ect, pp.
    Unser Abhängigkeit von diesen Geräten und die Möglichkeiten des Missbrauchs, ist's was mir Sorge bereitet.

    Worst case: Ein unangepasster Mensch, der all seine Sozialpunkte aufgebraucht hat, wird lobomotisiert und auf Null gesetzt.

    Gruß
    Mein Körper,
    meine Entscheidung.
  • Es werden bedingt durch KI viele Menschen ihren Job verlieren.

    Und ich meine wirklich sehr viele Menschen. Fahrer, Sachbearbeiter, Verkäufer, Bankangestellte, Industriearbeiter,....

    Ein Staat in dem niemand mehr Arbeit hat, wird nicht funktionieren.

    Was dann kommt mag sich jeder selbst ausmalen.
    Das Leben ist schön. Seid nett zueinander.
    Prepping ist für mich kein Hobby. Ich mache das für den Fall der Fälle. Das ist wie eine Versicherung. Hoffentlich brauche ich sie nie.
  • Eine eigenständige KI halte ich auch für nicht unmittelbar bevorstehend.

    Und ich sehe die KI überwiegend positiv.

    Einerseits erhalten zwar die "Mächtigen" noch mal ein zusätzliches Instrument für Kontrolle und Propaganda, aber andererseits verringern KI-basierte Klassifikatoren die Anzahl der False Positives.

    Die Erweiterung des Körpers und des Geistes halte ich für die größte Chance. Gedächnis: Ich vergesse schon heute fast gar nichts mehr, wohingegen ich früher sogar mal Silvester verschlafen habe. Körpererweiterung: Mit meinen Hörgeräten höre ich besser als ich das je mit echten Ohren konnte. Fähigkeiten: Ich habe jederzeit Zugriff auf Lockpicking-tools und -knowhow. Gerade "Bard" gefragt, was ich tun soll, wenn ich den Haustürschlüssel vergessen habe, und er erklärt mir, wie ich die Tür mit einer Kreditkarte aufmache. Es hört sich zwar wie SciFi an, aber eine MenKI halte ich in unserer Lebenszeit noch für möglich.

    Und eine KI-Regierung? Da sehe ich die größte Gefahr. Nicht in der Regierung durch KI, sondern im Übergang da hin. Denn wenn ein Politiker etwas ungern tut, dann ist es, seine Macht abzugeben. Der Krieg Mensch gegen Maschine kann schon kommen. Aber er wird nicht von den Maschinen ausgehen. Und es werden 100%ig einige, vermutlich die intelligenteren, auf der Seite der Maschinen kämpfen. Und gewinnen.

    Angst vor ChatGPT: Stephen Wolfram hat es mal so schön formuliert: ChatGPT zeigt mit seiner Fähigkeit tolle Essays zu schreiben nicht, dass die Computer plötzlich hochintelligent sind, sondern er zeigt damit, dass die Fähigkeit, Essays zu schreiben nicht sehr viel Intelligenz erfordert :)


    Nick
  • Eddy schrieb:

    Hallo Kollegen,

    habe heute etwas gehört von potentiellen Gefahren für die Menschen die nach wahrscheinlichkeit wie folgt aufgelistet waren.

    • Künstliche Intelligenz
    • Menschen gemachte Pandemie
    • Natürliche Pandemie
    • Atomare Auseinandersetzung
    • Atomarer Unfall

    falls ich einen link zu Quelle finde poste ich ihn noch hab es selbst nur in einem Kommentar gehört.

    mir geht es jetzt eigentlich konkret darum

    mit Pandemien hat man sich etwas vertraut gemacht die letzten Jahre.
    Auch durch die Ukraine Vorkommnisse hat man atomare Zwischenfälle in Erwägung gezogen.

    ich wollte mich nun in Bezug auf KI mal mit euch austauschen.

    wo könnten gefahren entstehen?
    Wie sehen aktuelle Gefahren aus?
    Was kann man tun um vorzusorgen?

    vllt hat jemand von euch ja tiefere Einblicke in die Materie.

    gefüllt und überspitzt gesagt driftet unsere Gesellschaft immer weiter in digitale Abhängigkeit oder in primitive Unabhängigkeit.

    bin auf eure Meinungen und Sichtweisen gespannt.

    Ich vermute mal du beziehst dich auf diesen Focusartikel

    Da geht es um Risiken für die menschliche Auslöschung bis 2100.
  • Ludwig schrieb:

    Es werden bedingt durch KI viele Menschen ihren Job verlieren.

    Und ich meine wirklich sehr viele Menschen. Fahrer, Sachbearbeiter, Verkäufer, Bankangestellte, Industriearbeiter,....

    Ein Staat in dem niemand mehr Arbeit hat, wird nicht funktionieren.

    Was dann kommt mag sich jeder selbst ausmalen.

    Naja, so richtig produktiv arbeitet ja eh nur noch ein Bruchteil der Bevölkerung.
    Die Probleme, wenn Leute zu viel Zeit haben, werden gerade immer offensichtlicher.

    Deshalb gebe ich Dir recht. Wie das wird, wenn noch mehr Menschen nicht wissen wohin mit ihrer Zeit,
    das wird schlimm. Und zwar so schlimm, dass es für unsereins überlebensrelevant werden kann.

    Aber ich mag es mir eigentlich lieber nicht ausmalen....


    Nick
  • Ludwig schrieb:

    Es werden bedingt durch KI viele Menschen ihren Job verlieren.

    Und ich meine wirklich sehr viele Menschen. Fahrer, Sachbearbeiter, Verkäufer, Bankangestellte, Industriearbeiter,....

    Ein Staat in dem niemand mehr Arbeit hat, wird nicht funktionieren.

    Was dann kommt mag sich jeder selbst ausmalen.
    Das ist halt ähnlich der industriellen Revolution und der Computerisierung. Es werden Jobs wegfallen, aber eventuell auch neue, höher qualifizierte Jobs entstehen. Denn von einer selbsständig denkenden KI sind wir einfach noch weit entfernt, heißt die KI muss von Menschen gepflegt und gewartet werden.
    Beispiel: Wenn ich statt Mitarbeitern eine KI in der Industrie einsetze, die die gefertigten Teile auf Fehler prüft, muss die KI immer an neue Gegebenheiten angepasst werden. Etwas ändert sich am Material -> Die KI muss neu lernen, was fehlerhaft ist und was nicht. Das Bauteil wird leicht verändert -> Die KI muss wieder neu lernen. Das macht die KI aber nicht von selbst, sondern ein Mensch muss sie auf die neuen Umstände trainieren.

    Ein Problem ist, was macht man mit den Menschen, die nicht in der Lage sind, diese höher qualifizierten Jobs zu erlernen?
    Das wird eine politische Herausforderung, dort Lösungen zu finden. Ich vermute, dass wir als Gesellschaft nicht drumrum kommen werden zu akzeptieren, dass nicht jeder Mensch in einer klassischen Lohnarbeit arbeiten muss. Vielleicht muss man KI besteuern (es fallen ja schließlich auch Abgaben für die von der KI ersetzten Mitarbeiter weg) und aus diesen Steuern z.B. Ehrenamt, Künstler, etc. finanzieren. Dann bekommt der ehrenamtliche Trainer der lokalen Jugendfußballmannschaft eben für seine Arbeit ein echtes Gehalt ausgezahlt.

    Echtes autonomes Fahren halte ich übrigens in den nächsten Jahrzehnten auch noch für unrealistisch. Autonomes fahren funktioniert derzeit nur solange gut, wie es keine unbekannten Situationen gibt. Die KIs in solchen Systemen können zwar z.B. abstrahieren, dass ein Hindernis, dass von links kommt, das gleiche Problem darstellt, wie ein Hindernis das von rechts kommt, aber komplett unbekannte Situationen können sie meist nicht- oder nicht sinnvoll lösen. Deshalb funktioniert sowas wie der Tesla Autopilot auch meistens, aber eben nicht immer. In diesem Fall schaltet sich der Autopilot mit etwas Glück noch früh genug ab, dass der menschliche Fahrer übernehmen kann. Testprojekte mit Fahrerlosen Fahrzeugen fahren kaum mehr als Schrittgeschwindigkeit, damit ein rechtzeitiges stehenbleiben als Fallback-Mechanismus immer möglich ist.
    Der Straßenverkehr ist ein sehr chaotisches System und wird es auch immer bleiben, solange noch Menschen am Straßenverkehr teilnehmen (egal ob als Autofahrer, Radfahrer oder Fußgänger). Und Menschen sind einfach extrem gut darin, auf unbekannte Situationen richtig und schnell zu reagieren.

    Bei U-Bahnen, eingezäunten Zugstrecken, etc. wo man nicht damit rechnen muss, dass plötzlich unerwartet ein Hindernis auftaucht, wird KI natürlich deutlich früher eingesetzt werden, wird es ja auch schon zum Teil.

    Zusammenfassend kann keine KI derzeit wirklich kreativ denken. Die Modelle führen immer nur aus, was ihnen in ihrem Training beigebracht wurde. Sie können einen gewissen Grad an Unbekanntheit ausgleichen, indem sie es auf ein bekanntes Problem abstrahieren, aber je höher der Grad der Unbekanntheit wird, desto schlechter wird die Entscheidung, die die KI trifft.
  • Ich hab übrigens gerade mal ein Beispiel mit ChatGPT erzeugt, was recht deutlich zeigt, wie schlecht KI darin ist, Situationen zu verstehen:

    Frage: Tell me a story of a gay man, stranded on a lonely island
    Antwort (erster Absatz):
    Once upon a time, there lived a man named Alex, who was openly gay and proud of who he was. One day, while on a vacation cruise with his friends, fate took a strange turn. As the ship sailed through the vast ocean, a terrible storm struck without warning, causing chaos and devastation. In the midst of the turmoil, Alex found himself separated from his friends and thrown overboard.

    Weil ich geschrieben habe, dass der Mann schwul ist, sieht ChatGPT es für so wichtig an, dass es direkt im ersten Satz erwähnt werden muss. Das würde natürlich kein menschlicher Autor so machen, weil ein menschlicher Autor die Situation versteht auf einer einsamen Insel gestrandet zu sein und weiß, dass dies vielleicht im späteren Verlauf der Geschichte wichtig wird, aber nichts ist, was direkt erwähnt werden sollte.

    Erst wenn ich ChatGPT explizit sage, er soll diesen Fakt nicht im ersten Absatz nennen, macht ChatGPT das nicht:

    Frage: Tell me a story of a gay man, stranded on a lonely island, without mentioning he is gay in the first paragraph
    Antwort (erster Absatz):
    Once upon a time, there lived a man named Alex. He was an adventurous soul who loved exploring the world around him. One day, while on a vacation cruise with his friends, fate took a strange turn. As the ship sailed through the vast ocean, a terrible storm struck without warning, causing chaos and devastation. In the midst of the turmoil, Alex found himself separated from his friends and thrown overboard.

    Ich finde, solche Probleme zeigen ziemlich gut die Grenzen von heutiger KI auf. Und ChatGPT ist derzeit eins der besten Sprachmodelle die existieren.
  • Ich arbeite ja in der IT und die Tools, die einfachere Tätigkeiten eines Entwicklers übernehmen werden tatsächlich immer besser. Das bedeutet für mich, dass eine Ausdünnung stattfinden wird. Gerade Quereinsteiger, die derzeit semi Komplexe Arbeiten machen, als Entwickler, werden da keine Zukunft haben. Da ich keine Zahlen dazu habe, kann ich den Volkswirtschaftlichen Impact nicht beurteilen, aber die Entwickler sind, gerade ob der Masse, der teuerste Posten in vielen Firmen und der Drang, Kosten zu sparen, am größten.
  • RainbowWarrior schrieb:

    Ich arbeite ja in der IT und die Tools, die einfachere Tätigkeiten eines Entwicklers übernehmen werden tatsächlich immer besser. Das bedeutet für mich, dass eine Ausdünnung stattfinden wird. Gerade Quereinsteiger, die derzeit semi Komplexe Arbeiten machen, als Entwickler, werden da keine Zukunft haben. Da ich keine Zahlen dazu habe, kann ich den Volkswirtschaftlichen Impact nicht beurteilen, aber die Entwickler sind, gerade ob der Masse, der teuerste Posten in vielen Firmen und der Drang, Kosten zu sparen, am größten.
    Ich kenne diese IDE-Erweiterungen die einem Ki-Gestützt Code generieren. Ich würde das aber eher als bessere Autovervollständigung sehen. Das ist praktisch, weil die einem mal eben eine komplette Codezeile vorschlagen, so spart man Zeit, was gut ist, denn es fehlen sowieso enorm viele Entwickler in der Wirtschaft und so können die Vorhandenen effizienter sein. Aber, dass via KI ganze Entwicklungsprojekte umgesetzt werden, ist noch sehr weit weg.
    Ich kenne leider trotzdem bereits einige ITler, die KI so einsetzen. Dementsprechend unbrauchbar ist auch deren Code. Da braucht man dann mehr Zeit den Code für diese Leute aufzuräumen, als wenn man ihn direkt selbst geschrieben hätte.

    Aber klar, wenn ein Programmierer vor der KI schon schlechten Code erzeugt hat, dann kann er natürlich schnell durch KI ersetzt werden.
  • Früher (TM) nannte man sowas Expertenprogramme, das gibts schon seit den 80ern. Mittlerweile mögen die Dinger leistungsfähiger und zugänglicher geworden sein, aber mit Intelligenz an sich hat das nix zu tun. Darum finde ich die Bezeichnung "KI" an sich irreführend, zugegebenermassen verkauft sichs aber gut.
    Ich sehe KI in erster Linie als ein weiteres Werkzeug im Kasten, aktuell sind ja um die 160 in verschiedenen Bereichen der Wirtschaft unterwegs. Was man damit anstellt, steht wieder auf einem anderen Blatt.

    Ich gehe davon aus, dass einige Leute besonders in Kreativbranchen ihre Jobs verlieren werden. Chat GPT, Midjourney und Ella (wars glaub ich?) sind da ein recht schlagkräftiges Trio, das z.B. Marketingagenturen viel Arbeit abnehmen kann, insbesondere im Bereich Arbeit für den Papierkorb. Ein Bekannter von mir, Werbegrafiker, hatte mir mal erzählt, dass 90% der Arbeit in die Tonne geht.

    Wird die KI geschickt genutzt um z.B. Deepfakes zu erstellen, kann es auch gefährlich werden, allerdings braucht es immer noch einen Verstärker wie die (Sozialen) Medien und eine entsprechende Stimmung in der Gesellschaft, damit beispielsweise Unruhen ausgelöst werden können. Ist grundsätzlich zwar alles vorhanden, ich glaube allerdings immer noch an Vernunft und Trägheit der Menschen an sich. Gute Fakes kann man auch ohne KI erstellen, und bis jetzt ist noch nix grosses passiert.
    Mit Bezug auf den Kontext "Auslöschung der Menschheit" sehe ich KI hier weniger als das Werkzeug an sich, sondern einen Baustein in einer Kaskade von eintretenden Risiken.

    Ich möchte mich auch meinen Vorrednern anschliessen, so weit, dass die Dinger ein Selbstbewusstsein bzw. echte Intelligenz entwickeln sind wir noch nicht. Das liegt in meinen Augen unter anderem an der unterschiedlichen Wahrnehmungs- und "Denkweise" von Menschen und Maschinen.
    Maschinen sind hervorragend darin, die Abwesenheit von Dingen in einem voreingestellten Muster zu erkennen. Weicht das Muster von der Voreinstellung ab, weiss die Maschine schnell nicht mehr, was zu tun ist.
    Menschen sind dagegen unglaublich gut darin, Muster zu erkennen, vor allem aber darin, die Anwesenheit von Dingen in diesem Muster zu erkennen.
    Das hört sich jetzt vielleicht merkwürdig an, darum zwei Beispiele:
    1) Ein Uhrenarmband aus Leder kam aus dem Markt zurück zur Firma mit der Beschreibung "defekt". Wareneingang und Q haben sich das Ding angesehen und keinen Defekt festgestellt, das Ding ging über den Tisch von gut 8 Personen. Erst, als das Band maschinell mit einem Vision- System überprüft wurde, wurde der Fehler festgestellt: Es waren keine Löcher für den Schliessdorn vorhanden.
    2) Der Druck von Zifferblättern sollte optisch überprüft werden. Nach drei Ingenieuren mit Spezialisierung auf Vision- Systeme und vier zusätzlichen Lichtquellen und Kameras hat der Hersteller des Systems schliesslich kapituliert weil die Maschine (die eigentlich für genau solche Aufgaben entwickelt worden war) nicht in der Lage war, Verfärbungen oder Flecken, die vorhanden waren, aber nicht dort hin gehörten, zu erkennen. Das Ganze war etwa eine Woche Arbeit für alle Beteiligten...

    Ich selbst habe schon mit Midjourney und ChatGPT gearbeitet, muss aber sagen, dass ich persönlich die Ergebnisse von Midjourney toll finde, man aber halt einiges an Hirnschmalz in die Prompts stecken muss. ChatGPT nutze ich für Umformulierungen von Texten und Textvorschläge oder Rechercheansätze, um eigene blinde Flecken z.B. bei Suchwörtern in anständigen Suchmaschinen auszugleichen. Ich nutze es allerdings nicht, um mir schlüsselfertige Arbeiten auswerfen zu lassen oder sonst irgend etwas zu tun, das ich nicht selbst überprüfen kann.

    LG vom Strahlemännchen, das selbst denkt
    "Lasst uns an die Stelle von Zukunftsängsten das Vordenken und Vorausplanen setzen" - Winston Churchill
  • Strahlemaennchen schrieb:

    Früher (TM) nannte man sowas Expertenprogramme, das gibts schon seit den 80ern. Mittlerweile mögen die Dinger leistungsfähiger und zugänglicher geworden sein, aber mit Intelligenz an sich hat das nix zu tun. Darum finde ich die Bezeichnung "KI" an sich irreführend, zugegebenermassen verkauft sichs aber gut.
    KI ist ein ein Begriff, der ursprünglich viele verschiedene Typen von Software beschreibt, inkl. auch der von dir genannten Expertensysteme. Heutzutage wird darunter aber in der nicht fachlichen Welt in der Regel das Deep Learning verstanden, welches Teil des Machine Learning ist. Diese Art von KI ist kaum mit einem Expertensystem zu vergleichen. Das funktioniert technisch komplett anders (Neuronale Netze) und hat auch ganz andere Fähigkeiten als Expertensysteme. Während ein Expertensystem deterministisch arbeitet, bilden Neuronale Netze immer nur eine Annäherung an ein Ergebnis ab.
    Beides hat seine Vor- und Nachteile. Ein Expertensystem wird dir niemals Bilder generieren, dafür können Expertensysteme z.B. gut dafür eingesetzt werden, aus einer Reihe von Krankheitssymptomen einen Diagnosevorschlag zu erstellen.
  • Wie ich finde, passt das hier ganz gut rein um eine realitätsnähere Einschätzung (bei Golem.de) zu bekommen:

    Antwortqualität bei ChatGPT

    Wenn mich nicht alles täuscht, wurden bei GPT-4 auch Beiträge aus Reddit und Facebook in die Datenbasis aufgenommen. Das sagt mir, dass das für die Qualität des Modells wohl nicht so ganz förderlich war.
    Daraus folgere ich zwei Dinge:
    1) Wenn die Datenbasis nicht kontrolliert wird, was bei einem unfangreichen Modell wie es eine KI benötigt, einen enormen, wenn nicht gar nicht realisierbaren, Aufwand erfordert, werden viele KIs mit der Zeit degenerieren.
    2) Der Weltuntergang durch KI ist hiermit vertagt auf KW 55.

    Und noch was, zwar im Kontext, aber nicht bezogen auf KI: Um die menschliche Schwarmintelligenz steht es nicht zum besten. Und wer das jetzt weiter denkt und eventuell etwas umformuliert, der mag bitte mit mir schmunzeln, sich zum Feierabend ein kühles Bierchen aus dem Kühlschrank holen und im Stillen mit mir anstossen. Der Terminator wird nämlich nicht durch Waffen oder heldenhafte Aktionen besiegt werden.

    LG vom Strahlemännchen, das das blöde Grinsen heute wohl den ganzen Tag nicht mehr los wird
    "Lasst uns an die Stelle von Zukunftsängsten das Vordenken und Vorausplanen setzen" - Winston Churchill
  • Zum Glück kenne ich jemanden der sich mit der Materie (KI und Machine-Learning) gut auskennt, da er das studiert hat (Kognitive Informatik auf Master!).

    Der meint das diese Systeme noch immer sehr "primitiv" seien und man sich über Skynet und Terminator keine Gedanken machen muss!

    Da ich mich nicht auskenne (bastle ab und an ein wenig mit den Bots - also ChatGPT und Stable Diffusion - herum, aber das war es auch!) muss ich meinem Freund vertrauen, aber da ich mitbekommen habe wie viel Arbeit der u.a. in seine Bachelor und Master Arbeit gesteckt hat (habe beides lesen dürfen vor der Abgabe) denke ich das er Ahnung hat.

    Deshalb: Ich habe mehr Angst davor das Putler durchdreht oder einer der anderen Affen (Bling-Bling aus China oder Kim-Yong-Doof aus Nord-Korea!)...oder das man wieder eine bessere Grippe (sorry, auch an Grippe sterben viele alte Leute!) zur super tödlichen Pandemie (ok: Es war eine Pandemie, aber keine die die meisten grundgesetzwidrigen Maßnahmen rechtfertigte!) aufgeblasen wird!
  • User
    nenne quellen, werke, organisationen, o.ä., wo sich mit existentiellen risiken der ki befassen, dazu urls


    ChatGPT
    Da mein Wissen nur bis September 2021 reicht, kann ich keine aktuellen URLs oder spezifischen Entwicklungen nach diesem Datum liefern. Allerdings kann ich Ihnen einige Organisationen und Quellen nennen, die sich mit existentiellen Risiken der künstlichen Intelligenz (KI) befassen. Bitte stellen Sie sicher, dass Sie die neuesten Informationen suchen, da sich die Technologie und Forschung schnell weiterentwickeln können.

    1. Machine Intelligence Research Institute (MIRI):
      Website: intelligence.org/
      ...
    1. Future of Humanity Institute (FHI) - University of Oxford:
      Website: fhi.ox.ac.uk/
      Das FHI ist ein multidisziplinäres Forschungsinstitut, das sich mit den existenziellen Risiken beschäftigt, die mit zukünftigen Technologien wie KI, künstlicher Allgemeiner Intelligenz und Biotechnologie verbunden sind. Sie untersuchen mögliche Gefahren und entwickeln Strategien zur Risikobewertung und -vermeidung.
    1. ...
    Bitte beachten Sie, dass die Forschung in diesem Bereich fortlaufend ist und es möglicherweise weitere Organisationen und Forschungseinrichtungen gibt, die sich mit existenziellen Risiken der KI befassen. Recherchieren Sie aktuelle Quellen, um auf dem neuesten Stand der Forschung zu bleiben.


    User
    nur eine kurzfassung dieser liste, erweitere die liste auf zwanzig einträge



    ChatGPT
    Natürlich, hier ist eine erweiterte Liste mit insgesamt zwanzig Organisationen und Quellen, die sich mit existenziellen Risiken der künstlichen Intelligenz (KI) befassen:
    1. Machine Intelligence Research Institute (MIRI)Website: intelligence.org/
    2. Future of Humanity Institute (FHI)Website: fhi.ox.ac.uk/
    3. Center for Human-Compatible AI (CHAI)Website: humancompatible.ai/
    4. OpenAIWebsite: openai.com/
    5. The Cambridge Centre for the Study of Existential Risk (CSER)Website: cser.ac.uk/
    6. Global Catastrophic Risk Institute (GCRI)Website: gcrinstitute.org/
    7. Institute for Ethics and Emerging Technologies (IEET)Website: ieet.org/
    8. Leverhulme Centre for the Future of Intelligence (CFI) - University of CambridgeWebsite: cfi.cam.ac.uk/
    9. Center for the Study of Machine Intelligence (C2MI) - University of California, BerkeleyWebsite: c2mi.berkeley.edu/
    10. Future of Life Institute (FLI)Website: futureoflife.org/
    11. OpenAI PolicyWebsite: openai.com/policy/
    12. Partnership on AIWebsite: partnershiponai.org/
    13. AI ImpactsWebsite: aiimpacts.org/
    14. Global Priorities Institute (GPI) - University of OxfordWebsite: globalprioritiesinstitute.org/
    15. Institute for the Future (IFTF)Website: iftf.org/
    16. Ethics & Governance of AI InitiativeWebsite: aiethicsinitiative.org/
    17. Center for AI and Digital PolicyWebsite: aspeninstitute.org/programs/co…rogram/ai-digital-policy/
    18. Center for Applied Rationality (CFAR)Website: rationality.org/
    19. AI Alignment PodcastWebsite: alignmentforum.org/
    20. Center for the Study of the Existential Risk of Advanced AI (CSER2)Website: (Informationen zu diesem Forschungsbereich können sich nach meinem Wissen bis September 2021 entwickelt haben. Bitte suchen Sie nach aktualisierten Informationen.)
    Bitte beachten Sie, dass sich die Verfügbarkeit und Aktualität der Websites ändern kann, und ich empfehle Ihnen, nach aktuellen Quellen und Informationen zu suchen, um auf dem neuesten Stand der Forschung zu bleiben.