- WERBUNG - Werbung

Bildung

    • Neu

      Jenkrei schrieb:


      • Ich sehe das mit dem Studium etwas Anders, ich bin da eher ein Anhänger Humboldts. Ein Studium ist keine Berufsausbildung, wie eine bessere Lehre. Es geht darum Persönlichkeiten zu bilden. ( Das da im „Nebeneffekt“ auch beruflich verwertbares Wissen vermittelt wird ist klar). Und genau diese Persönlichkeiten, neugierige, kritische, analytisch denkende Charaktere, kann keine KI ersetzen. Da müssen wir auf akademischer Ebene wieder hin.

      Da bin ich mit Dir völlig einverstanden. Ein Studium ist eben keine Ausbildung für einen bestimmten Beruf wie eine Lehre oder eine schulische oder duale Ausbildung.
      Ich habe da im Beruf die Erfahrung mit Leuten unterschiedlicher Bildung gemacht. Akademiker, egal, was die denn studiert hatten, konntest Du einfach für bestimmte Sachen gebrauchen. Die konnten das alles lernen und begreifen, die konnten unbekannte Probleme lösen, während Leute mit anderen Ausbildungen zwar in ihrem Beruf richtig gut waren, aber immer dann, wenn es darum ging, über ihren Tellerrand hinaus zu schauen oder innovativ zu denken, dann hat man eben ihre Begrenzungen gesehen. Das soll jetzt keine Bewertung sein, es ist aber eine Erfahrung, die ich im Berufsleben gemacht habe. Ein Studium ist wirklich etwas anderes als eine klassische Berufsausbildung. Und diese unterschiedlichen Dinge wurden in den letzten Jahrzehnten immer mehr verwischt. Man wollte halt schnell Leute ausbilden, die für irgendwas in der Wirtschaft "nützlich" sind. Aber das eben den Nachteil, dass das dann eben verschulte Schmalspur-Studiengängen geworden sind, in denen man nur noch von Prüfung zu Prüfung denkt. Die Leute können da gar nichts für. Es ist eine Mühle, in die sie von der Bildungspolitik hinein gezwängt wurden. Das fand ich von Anfang an nicht richtig.
      Ein ganz anderes Thema ist das Handwerkliche. Da kann ich nicht viel zu sagen.
    • Neu

      Jenkrei schrieb:


      • Ich hab mal einen Vortrag von einem Mitarbeiter der Meyer Werft gehört, in welchem er die Planungsschritte erläuterte die beim Bau eines Schiffes erfolgen. Die machen ja alles in Modulbauweise, jede Schnittstelle ist genau geplant. Sehr anspruchsvoll, aber vermutlich kann auch das bald eine KI. Im Kanalbau werden Planungen auf Basis von Geländemodellen und ein paar Rahmenparametern automatisiert ausgeführt. Da hat früher ein Team aus Ingenieuren und Zeichnern Wochen dran gesessen. Ausführungs und Ausschreibungsunterlagen werden parallel erstellt. Lediglich im Erdbau muss noch menschlich gearbeitet werden. Das kann die Maschine noch nicht.

      Bitte nicht überschätzen, was KI alles kann / können soll. Um das mal etwas aufzudröseln:
      Wenn die Medien heute über KI sprechen, meinen sie Large Language Modelle (LLMs). Und der Name "Large Language Model" trifft auch sehr gut, was diese Modelle leisten können. LLMs können in einer extrem großen Menge an "gelernten" Texten Muster erkennen und diese dann entsprechend eines Prompts mehr oder weniger sinnvoll zu einer Antwort zusammenführen. LLMs verstehen aber weder den Prompt noch die Antwort die sie generieren, also zumindest nicht in der Weise, wie ein Mensch sie verstehen würde. Wenn ein LLM eine Antwort erstellt, wird der Prompt entsprechend auf bekannte Muster analysiert und dann ein Text generiert, bei dem Wort für Wort immer das statistisch wahrscheinlichste Wort gewählt wird. Durch die extrem große Datenmenge, die modernen LLMs zur Verfügung steht, entsteht dann schnell der Eindruck einer Intelligenz, die mit der menschlichen Intelligenz vergleichbar ist, aber das ist sie nicht. Bei Chatbots wie ChatGPT werden im Hintergrund auch verschiedene Modelle eingesetzt, je nachdem was du von ChatGPT möchtest. Das Sprachmodell ist dann zwar GPT, aber wenn du ChatGPT z.B. bittest ein Bild zu erzeugen, wird im Hintergrund ein anderes Modell (Dall-E) genutzt. Was LLMs angeht, gehen Forscher inzwischen davon aus, dass inzwischen ein Peak erreicht ist in dem, was möglich ist. LLMs haben inzwischen nahezu alle Texte der Menschheit analsyisert. Es gibt also nur noch verhältnismäßig wenig neue Trainigsdaten. Und neue Trainingsdaten sind zum Teil auch problematisch, weil diese Texte wiederrum auch inzwischen häufig durch LLMs erzeugt wurden. Es entsteht hier also das Problem, dass LLMs im Training von Fehlern anderer LLMs lernen. Letztendlich können jetzt nur noch die Modelle selbst verbessert werden, so dass sie aus den bestehenden Trainingsdaten bessere Antworten generieren, aber solange es keine komplett neuen Modelle gibt, die entscheidend anders arbeiten, sind das nur marginale Verbesserungen.

      Wenn du ein Beispiel für die Probleme von LLMs willst (hab ich gerade in ChatGPT eingegeben):

      > Nenne 5 Tiere mit genau einem H

      Hier sind 5 Tiere, die genau ein „H“ im Namen haben:
      1. Hase
      2. Hai
      3. Hirsch
      4. Hamster
      5. Huhn
      Alle enthalten genau ein „H“. Wenn du magst, kann ich auch schwierigere Beispiele finden
      KI, bzw. LLMs werden zur Zeit durch die Medien stark gehyped und CEOs von Unternehmen überschätzen meist aus technsichem Unverständnis massiv, wie nützlich LLMs im Unternehmenseinsatz sind. LLMs erhöhen in erster Linie dann die Produktivität, wenn die Qualität der Arbeit egal ist. Ansonsten verschiebt sich die Arbeit nur von einer ausführenden Tätigkeit zu einer kontrollierenden Tätigkeit. Gerade kam erst raus, dass der forcierte KI-Einsatz in der Entwicklung bei Amazon zu den kürzlichen Ausfällen von AWS und des Amazon-Shops geführt hat (heise.de/news/Bericht-KI-Codin…-bei-Amazon-11205724.html). Deshalb sollen jetzt erfahrene Kräfte den KI-Code prüfen. Ich prophezeie, dass im nächsten Step dann die erfahrenen Kräfte kündigen werden, weil KI-Code prüfen überhaupt keinen Spaß macht und häufig aufwändiger ist, als einfach direkt selbst zu entwickeln. Und irgendwann später wird man vermutlich einsehen, dass forcierter KI-Einsatz quatsch ist.

      Ich will damit nicht sagen, dass LLMs grundsätzlich keine Daseinsberechtigung hat. Aber wie bei jedem Hype möchte man das neue Tool erstmal überall nutzen und am Ende wird es eine Nische geben, wo LLMs sinnvoll funktionieren und der Rest wird verschwinden. Für mich zeichnet sich ab, dass LLMs in folgenden Feldern bestehen könnten:
      - Übersetzungen
      - Formulierungshilfe
      - Qualitätskontrolle (z.B. bei Quellcode, um die Menschen zu unterstützen und z.B. bekannte Codemuster von Schwachstellen zu erkennen)
    • Neu

      Fusselkater schrieb:


      Alle enthalten genau ein „H“. Wenn du magst, kann ich auch schwierigere Beispiele finden

      Beim Huhn ist das zweite h ja auch kleingeschrieben. Ich vermute mal, dass die Anführungsstriche dazu führen, dass genau dieser Buchstabe, also Großgeschrieben gesucht wurde.
      Was die Modelle anscheinend auch nicht können sind Analoguhren, die etwas anderes als 10 mach 10 anzeigen. Einfach weil die allermeisten Bilder von Analoguhren aus Katalogen entstammen und diese meistens genau diese Uhrzeit anzeigen. Zumindest war es noch vor kurzem so.
      Das heisst die KIs verstehen nicht wirklich....
      Urbanprepping - Die beste deutschsprachige Preppingseite. Mit Abstand. Zu previval sag ich besser mal nix.
    • Neu

      borath schrieb:

      Beim Huhn ist das zweite h ja auch kleingeschrieben. Ich vermute mal, dass die Anführungsstriche dazu führen, dass genau dieser Buchstabe, also Großgeschrieben gesucht wurde.
      Ich habe den Prompt mal etwas genauer gestellt um das zu testen:

      > Nenne 5 Tiere mit genau einem h, ignoriere dabei die Groß- und Kleinschreibung

      Hier sind 5 Tiere, deren Namen jeweils genau ein „h“ enthalten (Groß- und Kleinschreibung ignoriert):
      1. Hund
      2. Hase
      3. Hirsch
      4. Hamster
      5. Hai

      Hirsch wird hier trotzdem aufgeführt. Ich habe also ChatGPT darauf hingewiesen, dass Hirsch 2 h enthält:

      > Hirsch enthält aber 2 h

      Du hast recht – „Hirsch“ enthält zwei „h“ (ein großes und ein kleines), wenn man streng auf die Buchstaben achtet. Danke für den Hinweis!
      Hier sind stattdessen 5 Tiere mit genau einem „h“ (Groß- und Kleinschreibung ignoriert):
      1. Hund
      2. Hase
      3. Hai
      4. Hahn
      5. Huhn
      Diese enthalten jeweils nur ein „h“.
      Nun haben wir wieder Hahn und Huhn mit drin, obwohl er weiterhin die Anweisung hat, Groß- und Kleinschreibung zu ignorieren.

      Aber das ist eben das Problem von LLMs. LLMs können nicht denken wie Menschen das tun. LLMs verstehen nur Muster in Texten und können damit letztendlich nur das wiedergeben, was sie im Training an Mustern erlernt haben. Allein die große Menge von Trainingsdaten sorgt dafür, dass es sich so anfühlt, als wäre ein LLM intelligent.

      Übrigens hat die Maus hier mal einen kleinen Beitrag gemacht, der das ganze zwar nur stark vereinfacht behandelt, aber trotzdem korrekt ist: