Spanish English French German Italian Portuguese
Soziales Marketing
HomeRecycelbare TechnologieKünstliche IntelligenzWerden Start-ups im Wettlauf um Unternehmens-KI eine Chance haben?

Werden Start-ups im Wettlauf um Unternehmens-KI eine Chance haben?

Es ist unmöglich, sich der Diskussion über KI zu entziehen, da die größten Technologieunternehmen sich beeilen, große neue Sprachmodelle zu entwickeln oder mit ihnen zusammenzuarbeiten und diese in ihre Software und Suchdienste zu integrieren. Die zugrunde liegende Technologie schreitet so schnell voran, dass Rufe laut werden, die Arbeiten zu unterbrechen und der Kongress die Technologieführer zu diesem Thema unter Druck zu setzen.

Doch während ChatGPT und ähnliche Tools beliebt sind, gibt es eine weniger diskutierte Seite des aktuellen KI-Wettbewerbs: das Unternehmen.

Aktuelle Nachrichten von Appian, einem börsennotierten Softwareunternehmen, und Neeva, einem Startup, das gegründet wurde, um eine Suchmaschine zu entwickeln, die mit den Angeboten großer Unternehmen konkurrieren könnte, machen deutlich, dass die Zahl der Teilnehmer, die um die Entwicklung von Tools konkurrieren, voraussichtlich zunehmen wird. und KI Dienstleistungen für große Unternehmen ist gesund. Wenn man bedenkt, wie lukrativ der Verkauf von Software an große Unternehmen sein kann, streben die Teilnehmer nicht nach einem kleinen Markt.

Heute werfen wir einen Blick zurück darauf, wie generative KI in Unternehmen passen kann, und befassen uns dann mit den neuesten Nachrichten, um besser zu verstehen, in welche Richtung sich Technologieunternehmen bewegen.

Branche oder Unternehmen?

Was die Verwendung von ChatGPT und verwandten Tools so unterhaltsam macht, ist die Tatsache, dass Sie fast alles darauf werfen können und sie Ihnen eine Antwort geben. Möchten Sie, dass ein generativer KI-Dienst Ihnen ein Haiku über die Diskografie von Dream Theater schreibt? Dies ist, was ChatGPT mir heute Morgen geantwortet hat:

kaskadierende Melodien,
Mit Symphonien gemalte Träume,
Zeitreisen entfalten sich.

Ich bedauere, Ihnen mitteilen zu müssen, dass es ein besseres Gedicht ist – und etwa tausendmal schneller – als ich es mit derselben Botschaft hätte erreichen können.

Obwohl es unglaublich spannend ist, generative KI-Tools zu verwenden, die einfach aus riesigen Datensätzen erstellt werden, haben Unternehmen andere Bedürfnisse und Prioritäten als die bescheidene Verbraucherbevölkerung der Welt. Unterschiedliche Bedürfnisse, unterschiedliche Inputs und unterschiedliche Outputs. Wie Ron Miller letzten Monat schrieb: „Was wäre, wenn jede Branche oder sogar jedes Unternehmen sein eigenes Modell hätte, das darauf trainiert wäre, den Jargon, die Sprache und den Ansatz des einzelnen Unternehmens zu verstehen?“

Aktuelle Nachrichten zeigen, dass Ron den Nagel auf den Kopf getroffen haben könnte.

In seiner jüngsten Ergebnispräsentation erläuterte das Automatisierungsunternehmen Appian seine Bemühungen, neue KI-Technologien in seinen eigenen Softwarekorpus zu integrieren. Appian bietet Process-Mining- und Automatisierungstools sowie Funktionen zum Erstellen von Low-Code-Anwendungen als Referenz. Hier ist Matt Calkins, CEO von Appian (via Fool-Transkript, Hervorhebung hinzugefügt):

Wir kündigen [eine neue Funktion] an, die ich Low-Code AI nenne und die es Kunden einfacher macht, ihre eigene KI auf den verbundenen Datensätzen von Appian zu kultivieren. Diese öffentlich-private Kluft trennt Appian von seiner größten Konkurrenz. Als Verfechter der privaten KI sprechen wir Käufer an, die ihre Datenbestände lieber nicht teilen möchten. Unsere Fähigkeit, große Datensätze zu sammeln, um private KI-Algorithmen zu trainieren, beruht auf einer Funktion namens Data Fabric.
Data Fabric ist ein schicker Begriff für eine virtuelle Datenbank und bedeutet, dass wir Daten aus dem gesamten Unternehmen so behandeln können, als ob sie zusammen wären, auch wenn sie getrennt bleiben. Diese Strategie ist für unsere Kunden vorzuziehen, die ungern Daten verlagern möchten. Daten sind der schwierigste Teil beim Erstellen und Ausführen von Prozessen, daher ist diese Funktion ein wesentlicher Vorteil. Im Gegenzug verschafft uns unsere Datenstruktur einen entscheidenden Vorteil bei der Erfindung der nächsten Generation des Process Mining.

Appian, das auf ein paar Milliarden Dollar geschätzt wird und in diesem Jahr auf dem Weg ist, die 500-Millionen-Dollar-Umsatzgrenze zu überschreiten, ist kein großes Technologieunternehmen. Es ist einfach ein großes Unternehmen, das 2017 an die Börse ging. Es ist davon überzeugt, dass seine Rolle als digitales Bindegewebe zwischen Unternehmensdatensätzen – das dabei hilft, ineffiziente und automatisierbare Prozesse zu finden – ihm einen Vorteil bei der Bereitstellung von KI-Diensten für Kunden verschaffen wird die nicht die Vorteile von Massenmarkt-Tools nutzen wollen.

Das ist sehr nett. Nicht, dass ich etwas dazu zu sagen hätte, „wer das Rennen um die Unternehmens-KI gewinnen wird.“ Aber ich mag einen wettbewerbsorientierten Markt, da er nicht nur das schnellste Innovationstempo hervorbringt, sondern dank wettbewerbsfähiger Preise auch einen größeren Kundenüberschuss ermöglicht. Wenn Appian davon überzeugt ist, einen Vorteil zu haben und seine neue Technologie schnell auf den Markt bringen zu können, könnte es sich einen großen Teil der künftigen Unternehmens-KI sichern (generative Unternehmens-KI? Generative Unternehmens-KI? Generative KI für Unternehmen?).

Es ist gut, dass Appian es mit Konkurrenzprodukten aufnehmen wird, von denen ich annehme, dass sie in Scharen von den Technologiegiganten auf den Markt kommen werden, aber was ist mit noch kleineren Technologieunternehmen? Was ist mit den Startups selbst?

Neeva ist ein interessanter Fall. Dieses suchorientierte Startup wollte eine neue Suchmaschine aufbauen, die nicht durch Werbung monetarisiert wird. Stattdessen würden die Nutzer eine geringe monatliche Gebühr zahlen und Neeva könnte diese Einnahmen in Suchtechnologie investieren, die Endnutzern und nicht Werbetreibenden dient. Die Idee war gut.

Doch am Wochenende stellte Neeva seine Verbrauchersuchmaschine unter Insolvenz. Weil? Denn was er ursprünglich baute, war eine interessante Version des alten oder klassischen Suchmodells. Da sich die Verbrauchernachfrage und die Sucharbeit von Unternehmen schnell dahingehend verlagerten, LLM zur Generierung von Antworten anstelle von Listen mit relevanten Links zu verwenden, musste Neeva sich auf die neue Realität einstellen:

Anfang 2022 wurde uns klar, welche Auswirkungen generative KI und LLMs haben würden. Wir haben ehrgeizige Anstrengungen unternommen, um LLMs nahtlos in unseren Suchstapel zu integrieren. Wir haben das Neeva-Team mit der Vision zusammengebracht, eine Antwortmaschine zu entwickeln. Wir sind stolz darauf, die erste Suchmaschine zu sein, die Anfang des Jahres auf die meisten Suchanfragen in Echtzeit zitierte KI-Antworten bietet.

Allerdings fügte das Unternehmen hinzu, dass sich die Nutzerakquise als schwierig erwiesen habe. Laut Neeva war es einfacher, Benutzer dazu zu bringen, für den Dienst zu bezahlen, als ihn zu testen. Da ChatGPT- und LLM-basierte Suchanfragen von großen Unternehmen wie Bing und Google Schlagzeilen machten, beschloss Neeva, etwas Neues auszuprobieren (Hervorhebung hinzugefügt):

Im letzten Jahr haben wir die klare und dringende Notwendigkeit erkannt, LLMs effektiv, kostengünstig, sicher und verantwortungsbewusst zu nutzen. Viele der Techniken, die wir mit kleinen Modellen, Downsizing, Latenzreduzierung und kostengünstiger Bereitstellung entwickelt haben, sind Dinge, die Unternehmen heute wirklich wollen und brauchen. Wir prüfen aktiv, wie wir unsere Such- und LLM-Expertise in diesen Umgebungen einsetzen können, und werden in den kommenden Wochen Updates zur Zukunft unserer Arbeit und unseres Teams bereitstellen.

Es ist noch zu früh, um zu sagen, ob Neeva seine Technologie nutzen kann, um interne LLMs für Unternehmen zu erstellen, aber die Tatsache, dass das Unternehmen es versucht, ist interessant. Es könnte auch Marktanteile in einem mehr oder weniger neuen Markt gewinnen und Big Tech eine noch dichtere Wettbewerbslandschaft bieten, die sie zu dominieren versuchen. Wenn Sie es können, können es vielleicht auch andere Unternehmen tun.

Ein letzter Gedanke: Neevas Zug könnte wie eine Quest-Wendung erscheinen. Aber wenn die Suche den LLM-Weg einschlägt und Neeva diese Technologie einfach auf einen bestimmten Kundentyp anwendet, kann man dann mit Fug und Recht sagen, dass das Unternehmen die Suche immer noch verfolgt? Die Geschäftssuche natürlich, aber das ist eine Frage, die ich mir stelle. Um noch einen Schritt weiter zu gehen: Baut Appian eine Unternehmenssuchmaschine? Vielleicht.

Wenn wir die Definition der Suche auf KI-gestützte Antworten erweitern und erwarten, dass dieselben LLMs uns beim Erstellen und Ausführen von Aufgaben helfen, entwickelt sich die Suche möglicherweise einfach zu „einer Chatbox, die Fragen beantworten, bei Bedarf erstellen und bei der Ausführung helfen kann.“ „Aufgaben“. Wenn das der Fall ist, werden viele Unternehmen um das gleiche Geschäftsfeld kämpfen. Hoffen wir, dass sich einige Startups eine Nische erobern.

VERBUNDEN

Lassen Sie eine Antwort

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Die Kommentarmoderation ist aktiviert. Es kann einige Zeit dauern, bis Ihr Kommentar erscheint.

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahren Sie, wie Ihre Kommentardaten verarbeitet werden.

ABONNIEREN SIE TRPLANE.COM

Veröffentlichen Sie auf TRPlane.com

Wenn Sie eine interessante Geschichte über Transformation, IT, Digital usw. mit einem Platz in TRPlane.com haben, senden Sie sie uns bitte und wir werden sie mit der gesamten Community teilen.

WEITERE PUBLIKATIONEN

Benachrichtigungen aktivieren OK Nein danke