Spanish English French German Italian Portuguese
Soziales Marketing
HomeLeseanleitungKI: Zusammenfassung der Hauptkonzepte

KI: Zusammenfassung der Hauptkonzepte

KI ist in scheinbar jedem Aspekt des modernen Lebens präsent, von Musik und Medien über Geschäft und Produktivität bis hin zu persönlichen Beziehungen. Es passiert so viel, dass es schwierig sein kann, Schritt zu halten. Deshalb finden Sie hier einen kurzen Überblick über Konzepte, von den neuesten großen Entwicklungen bis hin zu den Begriffen und Unternehmen, die Sie kennen müssen, um in diesem sich schnell verändernden Bereich auf dem Laufenden zu bleiben.

Zunächst einmal müssen wir uns alle einig sein: Was ist KI?

La künstliche Intelligenz, auch maschinelles Lernen (ML) genannt, ist eine Art Softwaresystem, das auf neuronalen Netzen basiert, eine Technik, die eigentlich schon vor Jahrzehnten entwickelt wurde, aber in letzter Zeit dank leistungsstarker neuer Rechenressourcen floriert. KI hat eine effektive Sprach- und Bilderkennung ermöglicht sowie die Fähigkeit, synthetische Bilder und Stimmen zu erzeugen, und Forscher arbeiten hart daran, es einer KI zu ermöglichen, im Internet zu navigieren, Reservierungen vorzunehmen, Rezepte zu ändern und mehr.

Dieser KI-Leitfaden ist in drei Teile gegliedert, die in beliebiger Reihenfolge gelesen werden können:

  • Erste, die grundlegenden Konzepte, die bekannt sein müssen, einschließlich der wichtigsten in letzter Zeit.
  • Dann, ein Überblick über die wichtigsten KI-Akteure und warum sie wichtig sind.
  • Und zum Schluss, eine kuratierte Liste aktueller Schlagzeilen und Entwicklungen.

AI 101

Künstliche neuronale Netzwerke mit tiefem Lernen, die die Form eines menschlichen Gehirns annehmen. Das neuronale Netzwerk verarbeitet Daten bei der Eingabe und liefert Ergebnisse bei der Ausgabe

Das Interessante an der KI ist, dass die grundlegenden Konzepte zwar mehr als 50 Jahre zurückreichen, aber nur wenige davon vor nicht allzu langer Zeit selbst Technikfreaks vertraut waren. Wenn Sie das Gefühl haben, verloren zu sein, machen Sie sich keine Sorgen, das geht fast jedem so.

Und noch ein Konzept, das es zu schätzen gilt: Obwohl es „künstliche Intelligenz“ genannt wird, ist dieser Begriff etwas irreführend. Es gibt keine einheitliche Definition von Intelligenz, aber was diese Systeme tun, ähnelt definitiv eher Taschenrechnern als dem Gehirn. Die Ein- und Ausgabe dieses Rechners ist wesentlich flexibler. Man könnte sich künstliche Intelligenz als eine künstliche Simulation vorstellen: Es handelt sich um eine imitierte Intelligenz.

Dies sind jedoch grundlegende Begriffe, die in jeder KI-Diskussion vorkommen.

Neurales Netzwerk

Unser Gehirn besteht größtenteils aus miteinander verbundenen Zellen, sogenannten Neuronen, die sich zu komplexen Netzwerken zusammenschließen, die Aufgaben ausführen und Informationen speichern. Seit den 60er Jahren wurden Versuche unternommen, dieses unglaubliche System in Software nachzubilden, aber die erforderliche Rechenleistung war erst vor 15 bis 20 Jahren allgemein verfügbar, als GPUs die Blüte digital definierter neuronaler Netze ermöglichten. Im Kern besteht es nur aus vielen Punkten und Linien: Die Punkte sind Daten und die Linien sind statistische Beziehungen zwischen diesen Werten. Genau wie im Gehirn kann dadurch ein vielseitiges System entstehen, das Eingaben schnell aufnimmt, durch das Netzwerk weiterleitet und Ausgaben erzeugt. Dieses System heißt Modell.

Modell

El Modell ist die eigentliche Codesammlung, die Eingaben akzeptiert und Ausgaben zurückgibt. Die Ähnlichkeit der Terminologie mit einem statistischen Modell oder Modellsystem, das einen komplexen natürlichen Prozess simuliert, ist kein Zufall. In der KI kann sich das Modell auf ein ganzes System wie ChatGPT oder so ziemlich jedes KI- oder maschinelle Lernkonstrukt beziehen, unabhängig davon, was es tut oder produziert. Modelle gibt es in unterschiedlichen Größen, was sowohl die Menge an Speicherplatz, die sie beanspruchen, als auch die Rechenleistung, die sie zum Betrieb benötigen, betrifft. Und diese hängen davon ab, wie das Modell trainiert wird.

Vorbereitung / Schulung

Um ein KI-Modell zu erstellen, werden die neuronalen Netze, die die Grundlage des Systems bilden, einer großen Menge an Informationen ausgesetzt Datensatz oder Korpus. Auf diese Weise erstellen diese riesigen Netzwerke eine statistische Darstellung dieser Daten. Dieser Trainingsprozess ist der rechenintensivste Teil, das heißt, er dauert Wochen oder Monate (er kann so lange wie nötig dauern) auf riesigen Arrays von Hochleistungscomputern. Der Grund dafür ist, dass nicht nur die Netzwerke komplex sind, sondern auch die Datensätze extrem groß sein können: Milliarden von Wörtern oder Bildern, die analysiert und im riesigen statistischen Modell dargestellt werden müssen. Sobald das Modell jedoch mit dem Kochen fertig ist, kann es viel kleiner und weniger anspruchsvoll bei der Verwendung sein, dieser Vorgang wird als bezeichnet Inferenz.

Inferenz

Wenn das Modell tatsächlich seine Arbeit erledigt, rufen wir es auf Inferenz, größtenteils im traditionellen Sinne des Wortes: eine Schlussfolgerung ziehen, indem man auf den verfügbaren Beweisen gründet. Natürlich handelt es sich hierbei nicht unbedingt um eine „Begründung“, sondern vielmehr darum, die Punkte in den Daten, die Sie aufgenommen haben, statistisch zu verknüpfen und tatsächlich den nächsten Punkt vorherzusagen. Wenn Sie beispielsweise sagen: „Vervollständigen Sie die folgende Sequenz: Rot, Orange, Gelb ...“, würden Sie feststellen, dass diese Wörter dem Anfang einer aufgenommenen Liste und den Farben des Regenbogens entsprechen, und auf das nächste Element schließen, bis dies der Fall ist hat den Rest dieser Liste erstellt. . Inferenz ist im Allgemeinen viel weniger rechenintensiv als Training: Stellen Sie sich vor, Sie betrachten einen Kartenkatalog, anstatt ihn zusammenzustellen. Die großen Modelle müssen immer noch auf Supercomputern und GPUs laufen, aber die kleineren können auf einem Smartphone oder etwas noch einfacherem laufen.

Generative KI

Alle reden von generativer KI, und dieser weit gefasste Begriff bezeichnet lediglich ein KI-Modell, das ein originelles Ergebnis erzeugt, beispielsweise ein Bild oder einen Text. Manche KI fassen zusammen, manche ordnen neu, manche identifizieren usw., aber eine KI, die tatsächlich etwas erzeugt (ob sie „glaubt“ oder nicht, ist fraglich), ist derzeit besonders beliebt. Vergessen Sie nicht: Nur weil eine KI etwas generiert hat, bedeutet das nicht, dass es korrekt ist oder überhaupt die Realität widerspiegelt. Es existierte einfach nicht, bevor Sie danach gefragt haben, wie eine Geschichte oder ein Gemälde.


aktuelle Bedingungen

Über die Grundlagen hinaus sind dies die relevantesten KI-Begriffe Mitte 2023.

Großes Sprachmodell (LLM)

Als einflussreichste und vielseitigste Form der KI, die heute verfügbar ist, werden große Sprachmodelle auf fast alle Texte trainiert, aus denen das Internet besteht, und auf einen Großteil der englischsprachigen Literatur. Die Aufnahme all dessen führt zu einem riesigen Basismodell. LLMs können sich in natürlicher Sprache unterhalten und Fragen beantworten und eine Vielzahl von Stilen und Arten schriftlicher Dokumente nachahmen, wie ChatGPT, Claude und LLaMa demonstrieren. Obwohl diese Modelle unbestreitbar beeindruckend sind, sollte beachtet werden, dass es sich immer noch um Mustererkennungsmaschinen handelt, und wenn sie reagieren, handelt es sich um einen Versuch, ein von Ihnen identifiziertes Muster zu vervollständigen, unabhängig davon, ob dieses Muster die Realität widerspiegelt oder nicht. LLMs halluzinieren oft in ihren Antworten, worauf wir gleich noch eingehen werden.

Grundmodell

Das Training eines riesigen Modells anhand großer Datenmengen von Grund auf ist teuer und komplex, sodass Sie es nicht mehr als nötig tun müssen. Die Basismodelle sind von Grund auf die größten und benötigen zum Betrieb einen Supercomputer. Sie können jedoch so verkleinert werden, dass sie in kleinere Container passen, wobei in der Regel die Anzahl der Parameter reduziert wird. Sie können sich diese als die Gesamtpunktzahl vorstellen, mit der das Modell arbeiten muss, und heutzutage können sie in Millionen, Milliarden oder sogar Billionen gehen.

Feinabstimmung des Modells

Ein Basismodell wie GPT-4 ist intelligent, aber auch von Natur aus generalistisch: Es absorbiert alles von Dickens über Wittgenstein bis hin zu den Dungeons & Dragons-Regeln, aber nichts davon ist nützlich, wenn Sie es beim Verfassen eines Anschreibens für einen Lehrplan unterstützen möchten . Glücklicherweise können die Modelle verfeinert werden, indem man sie mithilfe eines speziellen Datensatzes, beispielsweise einiger Tausend herumliegender Bewerbungen, ein wenig zusätzlich trainiert. Dies gibt dem Modell eine viel bessere Vorstellung davon, wie es in diesem Bereich helfen kann, ohne das allgemeine Wissen zu verwerfen, das es aus den restlichen Trainingsdaten gesammelt hat.

Reinforcement Learning from Human Feedback (RLHF) ist eine spezielle Art der Feinabstimmung, von der man viel hört: Sie nutzt Daten von Menschen, die mit dem LLM interagieren, um deren Kommunikationsfähigkeiten zu verbessern.

Verbreitung

Die Bilderzeugung kann auf viele Arten erfolgen, aber die bisher erfolgreichste ist die Diffusion, die Kerntechnik von Stable Diffusion, Midjourney und anderen beliebten generativen KIs. Diffusionsmodelle werden trainiert, indem ihnen Bilder gezeigt werden, die durch Hinzufügen von digitalem Rauschen schrittweise verschlechtert werden, bis nichts mehr vom Original übrig bleibt. Indem sie dies beobachten, lernen Diffusionsmodelle auch, das Gegenteil zu tun und dem reinen Rauschen nach und nach Details hinzuzufügen, um ein willkürlich definiertes Bild zu erzeugen. Bei der Bildgebung fangen wir bereits an, darüber hinauszugehen, aber die Technik ist zuverlässig und relativ gut verstanden, also erwarten Sie nicht, dass sie so schnell verschwinden wird.

Halluzination

Ursprünglich handelte es sich dabei um das Problem, dass bestimmte Bilder im Training in eine andere Richtung rutschten, etwa Gebäude, die aussahen, als wären sie aus Hunden, weil Hunde auf dem Trainingsset zu häufig vorkommen. Nun soll es eine KI geben halluzinieren wenn Sie sich einfach etwas ausdenken, weil Ihr Trainingssatz nicht genügend oder widersprüchliche Daten enthält.

Dabei kann es sich entweder um einen Vermögenswert oder eine Verbindlichkeit handeln; Eine KI, die gebeten wird, originelle oder sogar abgeleitete Kunst zu schaffen, halluziniert ihre Ergebnisse. Man kann einem LLM sagen, dass er ein Liebesgedicht im Stil von Yogi Berra schreiben soll, und er wird dies gerne tun – obwohl so etwas nirgendwo in seinem Datensatz existiert. Aber es kann ein Problem sein, wenn eine sachliche Antwort gewünscht wird; Modelle werden selbstbewusst eine Reaktion präsentieren, die halb real, halb halluzinatorisch ist. Derzeit gibt es keine einfache Möglichkeit, herauszufinden, welches welches ist, außer es selbst zu überprüfen, da das Modell selbst nicht wirklich weiß, was „wahr“ oder „falsch“ ist, sondern nur versucht, ein Muster so gut wie möglich zu vervollständigen.

Starke künstliche Intelligenz, AIF, (Künstliche Allgemeine Intelligenz, AGI)

Künstliche allgemeine Intelligenz oder starke KI ist kein wirklich klar definiertes Konzept, aber die einfachste Erklärung ist, dass es sich um Intelligenz handelt, die nicht nur mächtig genug ist, um das zu tun, was Menschen tun, sondern auch zu lernen und sich zu verbessern, so wie wir es tun. Einige befürchten, dass dieser Zyklus des Lernens, der Integration dieser Ideen und des anschließenden Lernens und des schnelleren Wachstums sich selbst aufrechterhalten und zu einem superintelligenten System führen wird, das weder einzudämmen noch zu kontrollieren ist. Einige haben sogar vorgeschlagen, die Forschung zu verzögern oder einzuschränken, um diese Möglichkeit zu verhindern.

Das ist sicherlich eine erschreckende Vorstellung, und Filme wie „Matrix“ und „Terminator“ haben untersucht, was passieren könnte, wenn die KI außer Kontrolle gerät und versucht, die Menschheit zu eliminieren oder zu versklaven. Aber diese Geschichten basieren nicht auf der Realität. Der Anschein von Intelligenz, den wir in Dingen wie ChatGPT sehen, ist beeindruckend, hat aber wenig mit dem abstrakten Denken und der dynamischen Multi-Domain-Aktivität zu tun, die wir mit „echter“ Intelligenz assoziieren. Obwohl es fast unmöglich ist, vorherzusagen, wie sich die Dinge entwickeln werden, kann es hilfreich sein, sich AGI als etwas wie interstellare Raumfahrt vorzustellen: Wir alle verstehen das Konzept und arbeiten offenbar darauf hin, aber gleichzeitig sind wir unglaublich weit davon entfernt, es zu erreichen irgendetwas Ähnliches. Und aufgrund der immensen Ressourcen und grundlegenden wissenschaftlichen Durchbrüche, die erforderlich sind, wird es niemand plötzlich aus Zufall schaffen!

Es ist interessant, über AGI nachzudenken, aber es hat keinen Sinn, in Schwierigkeiten zu geraten, wenn KI, wie Kommentatoren betonen, bereits heute trotz ihrer Einschränkungen und vor allem wegen dieser Einschränkungen eine echte und folgenreiche Bedrohung darstellt. Niemand will Skynet, aber man braucht keine mit Atomwaffen bewaffnete Superintelligenz, um echten Schaden anzurichten: Heutzutage verlieren Menschen ihre Jobs und fallen auf Falschmeldungen herein. Wenn wir diese Probleme nicht lösen können, welche Chance haben wir dann gegen einen T-1000?


Hauptakteure der KI

OpenAI

ChatGPT-Begrüßungsbildschirm

Wenn es in der KI einen bekannten Namen gibt, dann ist es dieser. OpenAI begann, wie der Name schon sagt, als eine Organisation, die mehr oder weniger offen Forschung betreiben und die Ergebnisse bereitstellen wollte. Seitdem hat es sich zu einem traditionelleren, gewinnorientierten Unternehmen umstrukturiert, das über APIs und Apps Zugang zu seinen Fortschritten bei Sprachmodellen wie ChatGPT bietet. An der Spitze steht Sam Altman, ein technotopischer Milliardär, der dennoch vor den Risiken gewarnt hat, die KI mit sich bringen könnte. OpenAI ist der anerkannte Marktführer im Bereich LLM, betreibt aber auch Forschung in anderen Bereichen.

Microsoft

Es überrascht nicht, dass Microsoft einen beträchtlichen Teil der Arbeit in der KI-Forschung geleistet hat, aber wie andere Unternehmen ist es ihm mehr oder weniger nicht gelungen, seine Experimente in große Produkte umzusetzen. Sein klügster Schachzug bestand darin, schnell in OpenAI zu investieren, was ihm eine exklusive langfristige Partnerschaft mit dem Unternehmen einbrachte, das jetzt seinen Bing-Konversationsagenten betreibt. Obwohl seine eigenen Beiträge gering und weniger unmittelbar anwendbar sind, verfügt das Unternehmen über eine beträchtliche Forschungspräsenz.

Google

Bekannt für seine „Reisen ins Nirgendwo“, hat Google irgendwie den Anschluss an die KI verpasst, obwohl seine Forscher buchstäblich die Technik erfunden haben, die direkt zur aktuellen KI-Explosion führte: den Transformator. Er arbeitet jetzt fleißig an seinen eigenen LLMs und anderen Agenten, aber er holt eindeutig auf, nachdem er im letzten Jahrzehnt den Großteil seiner Zeit und seines Geldes darauf verwendet hat, das veraltete KI-Konzept des „virtuellen Assistenten“ voranzutreiben. CEO Sundar Pichai hat wiederholt erklärt, dass das Unternehmen bei Suche und Produktivität fest auf KI setzt.

Anthropisch

Nachdem sich OpenAI von Open Source abgewendet hatte, verließen die Geschwister Dario und Daniela Amodei die Gruppe, um Anthropic zu gründen, mit der Absicht, die Rolle einer ethisch orientierten und offenen KI-Forschungsorganisation zu übernehmen. Mit der Menge an Bargeld, die sie zur Verfügung haben, sind sie ein ernstzunehmender Konkurrent von OpenAI, auch wenn ihre Modelle, wie Claude, noch nicht so beliebt oder bekannt sind.

Stabilität

Umstritten, aber unvermeidlich, stellt Stability die Open-Source-Schule der KI-Implementierung dar, die alles im Internet ausnutzt und die generativen KI-Modelle, die sie trainiert, frei verfügbar macht, wenn Sie über die Hardware verfügen, um sie auszuführen. Dies steht im Einklang mit der Philosophie „Informationen wollen frei sein“, hat aber auch ethisch fragwürdige Projekte wie die Generierung pornografischer Bilder und die Nutzung geistigen Eigentums ohne Zustimmung (manchmal gleichzeitig) beschleunigt.

Elon Musk

Um nicht zu vergessen: Musk äußerte sich offen zu seinen Befürchtungen hinsichtlich der außer Kontrolle geratenen KI, aber auch zu einigen Kritikpunkten, nachdem er schon früh zu OpenAI beigetragen hatte und eine Richtung eingeschlagen hatte, die ihm nicht gefiel. Obwohl Musk wie üblich kein Experte auf diesem Gebiet ist, lösen seine Eskapaden und Kommentare breite Reaktionen aus (er war einer der Unterzeichner des oben erwähnten „KI-Pause“-Briefes) und er versucht, ein eigenes Ermittlungsteam zu gründen.

VERBUNDEN

ABONNIEREN SIE TRPLANE.COM

Veröffentlichen Sie auf TRPlane.com

Wenn Sie eine interessante Geschichte über Transformation, IT, Digital usw. mit einem Platz in TRPlane.com haben, senden Sie sie uns bitte und wir werden sie mit der gesamten Community teilen.

WEITERE PUBLIKATIONEN

Benachrichtigungen aktivieren OK Nein danke