Alibaba Cloud fördert KI-Innovationen in Asien

5 Use Cases aus Gesundheit, Tourismus, Beauty und Technologie, die Asiens KI-Innovationen prägen

Alibaba Cloud, das IT-Kompetenzzentrum der Alibaba Group, treibt mit seiner ‚Cloud + KI‘-Entwicklungsstrategie technologische Innovationen in verschiedenen Branchen voran. Laut den aktuellen Quartalszahlen verzeichnet das Unternehmen ein solides Wachstum bei den Umsätzen mit externen Kunden: zweistellige Zuwächse bei Public-Cloud-Diensten und beeindruckende dreistellige Wachstumsraten bei KI-Produkten – bereits im fünften Quartal in Folge.

KI-Innovationen, die über den Hype hinausgehen

Asiatische Unternehmen setzen auf Alibaba Cloud, um ihre Geschäftsabläufe durch den Einsatz fortschrittlicher KI zu transformieren. Dabei reicht die Bandbreite von hochmodernen LLMs (Large Language Models) bis hin zu KI-gestützten Bildtechnologien, die Unternehmen helfen, schneller, effizienter und kundenorientierter zu arbeiten.

„Unsere Cloud-Infrastruktur und KI-Lösungen unterstützen Unternehmen dabei, ihre Effizienz zu steigern und die Kundenbindung zu intensivieren. Als führender Cloud-Anbieter in Asien setzen wir auf Partnerschaften, um das Potenzial von KI und Cloud für Unternehmen jeder Größe auszuschöpfen“, erklärt Selina Yuan, Präsidentin von International Business bei Alibaba Cloud Intelligence.

KI-basierte Beauty-Beratung

Drunk Elephant, eine bekannte Hautpflegemarke, hat das neueste Foundation-Modell Qwen-max von Alibaba Cloud in seinen Chatbot DRUNKGPT integriert, um personalisierte Hautpflegeempfehlungen zu bieten. Der KI-gesteuerte Assistent wird mit einer Wissensdatenbank zur Hautpflege trainiert, um maßgeschneiderte Ratschläge zu geben.

DRUNKGPT nutzt fortschrittliche Technologien wie Supervised Fine-Tuning (SFT) und Retrieval Augmented Generation (RAG), um die Antworten auf Kundenanfragen zu optimieren und relevanter zu gestalten. Diese Lösung bietet eine tiefergehende Interaktion mit der Marke und stärkt die Kundenbindung.

KI-Ernährungsberater mit personalisierten Tipps

Haleon China nutzt Alibaba Clouds Qwen-LLM zusammen mit RAG-Technologie, um einen spezialisierten KI-Ernährungsassistenten namens iNutrition zu entwickeln. Diese Lösung bietet den chinesischen Verbrauchern personalisierte, auf ihre spezifischen Bedürfnisse abgestimmte Ernährungstipps.

Durch die Integration von Qwen mit Haleons umfangreicher interner Wissensdatenbank kann iNutrition präzise und maßgeschneiderte Ratschläge zur Ernährung und Gesundheit liefern. Diese Lösung stellt sicher, dass die Beratung den individuellen Bedürfnissen der Verbraucher entspricht.

Fotografie 2.0

In Malaysia setzt Pictureworks, ein führender Anbieter von Fotolösungen, auf Alibaba Clouds KI- und Cloud-Technologien, um die Flexibilität und Qualität von hochauflösenden Aufnahmen zu verbessern. Dies wird erfolgreich an sieben führenden Touristenattraktionen in Asien umgesetzt, mit über 150.000 Fotos, die in einem preisgekrönten Freizeitpark in Hongkong produziert wurden.

Die Kerntechnologie von Alibaba Cloud, die hier eingesetzt wird, umfasst die Platform for Artificial Intelligence (PAI), Function Compute und OSS. PAI erleichtert den gesamten Lebenszyklus des maschinellen Lernens und bietet eine vollständig verwaltete Dienstleistung zur Modellbereitstellung. Dadurch kann Pictureworks KI-Modelle schnell und effizient anpassen, ohne auf traditionelle Setups wie Green Screens angewiesen zu sein.

Reiseanbieter senkt Kosten um 45 %

Das Unternehmen Atlas aus Singapur, ein Anbieter von B2B-Reise-Technologie, hat die KI-Plattform von Alibaba Cloud genutzt, um einen digitalen Chatbot zu implementieren, der 24/7-Kundensupport bietet. Dieser Chatbot beantwortet Anfragen zu Buchungsprozessen und Zahlungsoptionen und hat es Atlas ermöglicht, die Betriebskosten um 45 % zu senken.

Durch die Integration von Alibaba Clouds Qwen-LLM und Model Studio hat Atlas eine skalierbare und sichere Infrastruktur geschaffen, die nicht nur den Betrieb optimiert, sondern auch die Kundenerfahrung erheblich verbessert.

Japans Startups setzen auf neue KI-Infrastruktur

In Japan hat das Startup Lightblue, eine Initiative der Universität Tokio, die Qwen-Modelle von Alibaba Cloud genutzt, um japanische Sprachmodelle zu entwickeln. Diese LLMs verbessern die Genauigkeit der natürlichen Sprachverarbeitung (NLP) und sind speziell auf die Bedürfnisse der japanischen Sprache abgestimmt.

Die Lösung nutzt die skalierbare Architektur von Alibaba Cloud, einschließlich Elastic Compute Service (ECS), Server Load Balancer und Object Storage Service (OSS), um sichere und effiziente Cloud-Dienste bereitzustellen. Die Verwendung von Qwen hat dazu beigetragen, das Modell in Bezug auf Präzision und Funktionalität signifikant zu verbessern.

Alibaba Cloud (www.alibabacloud.com) wurde 2009 gegründet und fungiert als IT-Kompetenzzentrum der Alibaba Group. Das Unternehmen bietet weltweit eine umfassende Suite von Cloud-Services an, darunter elastisches Computing, Datenbankdienste, Speicherlösungen, Netzwerkvirtualisierung, großangelegte Rechenleistung, Sicherheitsdienste, Big-Data-Analysen, maschinelles Lernen und künstliche Intelligenz (KI)-Services. Seit 2018 ist Alibaba laut Gartner der führende IaaS-Anbieter im Asien-Pazifik-Raum, gemessen am Umsatz in US-Dollar. Zudem gehört das Unternehmen seit 2018 zu den weltweit führenden Anbietern von Public-Cloud-IaaS-Diensten, wie IDC berichtet.

Firmenkontakt
Alibaba Cloud (Kontakt ist PR-Agentur)
Louisa Struif
Sendlinger Straße 42 A
80331 München
+49 (0) 89 211 871 59
https://www.alibabacloud.com/de

Pressekontakt
Schwartz PR
Louisa Struif
Sendlinger Straße 42A
80331 München
+49 (0) 89 211 871 59

Home Page

Pyx AI findet Infos in Unternehmensdaten in Sekunden per KI.

Pyx AI verkürzt mit Hilfe von KI die Suche nach Informationen in unternehmensinternen Dokumenten und Daten auf Sekunden.

Pyx AI findet Infos in Unternehmensdaten in Sekunden per KI.

Osnabrück. (02.06.2024) – Das Osnabrücker Start-up Pyx AI bietet eine fortschrittliche Retrieval-Augmented Generation (RAG) Technologie, die speziell für die Suche und Extraktion detaillierter Informationen aus internen Dokumenten in Unternehmen entwickelt wurde. Diese innovative KI-Lösung ermöglicht es Mitarbeitern, interne Informationen auf den unternehmensinternen Servern nicht nur schnell zu lokalisieren, sondern auch die kleinsten Details aus jedem Dokument durch einfache natürliche Sprache abzufragen und zu extrahieren, auch über mehrere Dokumente hinweg.

Mit einem KI-Sprachmodell ermöglicht Pyx AI (https://pyx-ai.com/de/de-features/) Unternehmen, umfangreiche interne Daten nahtlos zu indizieren, zu analysieren und zu kombinieren. Dieser Prozess etabliert eine hochpräzise und sichere Wissensbasis, die die Fähigkeit verbessert, spezifische Details abzurufen, ohne manuell jedes Dokument durchgehen zu müssen, wodurch Geschäftsoperationen beschleunigt und fundiertere Entscheidungen unterstützt werden. Sachbearbeiter in Unternehmen sparen somit bis zu 19% ihrer Arbeitszeit – das sind über 10.000EUR pro Mitarbeiter pro Jahr.

„Pyx AI lässt sich kinderleicht wie die bekannten Chatprogramme bedienen, ein langes Onboarding fällt somit weg. Zudem ist unser Preismodell flexibel gestaltet und auf die Bedürfnisse verschiedener Unternehmensgrößen zugeschnitten“, erklärt Stavros Kyriakidis, CEO von Pyx AI (https://pyx-ai.com/de/de-pricing/). Von aufstrebenden Start-ups bis hin zu etablierten Großunternehmen sind die Lösungen von Pyx AI skalierbar, kostengünstig und so gestaltet, dass jedes Teammitglied relevante Informationen mühelos und schnell abrufen kann.

„Datensicherheit hat bei Pyx AI höchste Priorität,“ betont Kyriakidis zusätzlich. Im Einklang mit den höchsten DSGVO-Standards garantiert die Plattform, dass alle internen Datenverarbeitungen strenge Datenschutz- und Sicherheitsprotokolle einhalten. So können Unternehmen sich auf die Sicherheit und Vertraulichkeit ihrer Daten verlassen.

Pyx AI lädt Organisationen ein, die transformative Wirkung seiner Technologie durch eine kostenlose Demo persönlich zu erleben, die die KI-basierte Informationssuche in aller Kürze eindrucksvoll demonstriert.

Für weitere Informationen oder zur Vereinbarung einer Demo besuchen Sie die Website von Pyx AI (https://pyx-ai.com/de/de-contact/).

Kontaktinformationen:
Website: https://pyx-ai.com/de/de-pyx/
E-Mail: kontakt@pyx-ai.com
Telefon: 0541 – 814 135 20

Über Pyx AI:
Mit Sitz in Osnabrück, Deutschland, führt Pyx AI das Feld bei der Anwendung von Retrieval-Augmented Generation-Technologie zur Optimierung des internen Dokumentenmanagements in Organisationen an. Unsere Mission ist es, die Art und Weise, wie Unternehmen mit ihren internen Daten umgehen, zu revolutionieren, die Suchzeiten drastisch zu reduzieren und die Produktivität mit unserer fortschrittlichen KI-Technologie zu steigern.

Kontakt
PYX AI
Stavros Kyriakidis
August-Hölscher-Straße 81
49080 Osnabrück
0 174 6347225

Pyx

Neo4j stellt GraphRAG-Funktionen in Google Cloud vor

Native Integration der Graphdatenbank in die Google Cloud Platform beschleunigt Entwicklung und Deployment von GenAI-Anwendungen

Neo4j stellt GraphRAG-Funktionen in Google Cloud vor

GenAI-Referenzarchitektur mit Google Cloud, VertexAI, Gemini und Neo4j (Bildquelle: Neo4j)

München – 9. April 2024 – Neo4j (https://neo4j.com/), Anbieter von Graphdatenbanken und Graph Analytics, bietet ab sofort die native Integration seiner Graphdatenbank in Google Cloud an. Ziel ist es, die Entwicklung und Bereitstellung von GenAI-Anwendungen zu beschleunigen und bekannte Probleme (z. B. KI-Halluzinationen und steigende Komplexität) zu lösen. Dazu kommt mit GraphRAG eine Form von Retrieval Augmentation Generation (RAG) zum Einsatz.

RAG bezeichnet einen Ansatz, bei dem LLMs mit externen Daten ergänzt werden, um Antworten relevanter, aktueller, nachvollziehbarer und präziser zu machen. Handelt es sich bei dieser Datenquelle um einen Knowledge Graphen spricht man von GraphRAG. Knowledge Graphen erfassen Beziehungen zwischen Entitäten, verankern LLMs innerhalb von Fakten und liefern damit die für GenAI-Anwendungen notwendige Erklärbarkeit, Aktualität, Genauigkeit sowie Kontext für relevante Antworten. Nach Gartner® ist das Zusammenspiel zwischen der Performance großer Sprachmodelle (LLMs) und der „Robustheit“ von Knowledge Graphen entscheidend, um fehlertolerante KI-Anwendungen zu entwickeln*.

GraphRAG mit Neo4j und Google Cloud:
– Schnelles Erstellen von Knowledge Graphen: Entwickler können mit Google Cloud, dem KI-Modell Gemini, VertexAI, LangChain und Neo4j Knowledge Graphen aus unstrukturierten Daten wie PDFs, Webseiten und Dokumenten erstellen – entweder direkt oder geladen aus Google Cloud Storage Buckets.
– Aufnahme, Verarbeitung und Analyse von Echtzeitdaten: Entwicklern stehen Flex Templates in Dataflow zu Verfügung, um wiederholbare, sichere Datenpipelines aufzubauen und Daten über Google BigQuery, Google Cloud Storage und Neo4j einzulesen, zu verarbeiten und zu analysieren. Darüber hinaus werden die Knowledge Graphen so mit Echtzeitdaten versorgt, um Relevanz, Aktualität und Reaktionsfähigkeit von GenAI-Anwendungen sicherzustellen.
– Graphbasierte GenAI-Anwendungen auf Google Cloud: Dank Gemini for Google Workspace und Reasoning Engine von Vertex AI lassen sich GenAI-Anwendungen und APIs auf Google Cloud Run bereitstellen, überwachen und skalieren. Das Gemini KI-Modell wurde auf den Daten von Neo4j trainiert, um beliebige Sprachcode-Schnipsel automatisch in die Abfragesprache Cypher von Neo4j zu verwandeln. Diese Integration ermöglicht eine schnelle, einfache und kollaborative Anwendungs-Entwicklung. Entwickler können Cypher zudem in jeder integrierten Entwicklungsumgebung (IDE) verwenden, die vom Gemini KI-Modell unterstützt wird, was eine effiziente Abfrage und Visualisierung von Graphdaten sicherstellt. Neo4js Vektorsuche, GraphRAG und Conversational-Memory-Funktionen sind nahtlos über LangChain und Neo4j AuraDB (https://neo4j.com/cloud/platform/aura-graph-database/)auf Google Cloud integriert.

Alle neuen Funktionen sind ab sofort in Neo4j für Google Cloud verfügbar. Unternehmen, die strenge Anforderungen hinsichtlich Datenresidenz, Sicherheit und Compliance erfüllen müssen, profitieren von der Google Distribution Cloud (GDC) Hosted. GDC ist eine Air-Gapped Private Cloud-Infrastruktur und Edge-Umgebung, die speziell für Organisationen des öffentlichen Sektors und in regulierten Branchen entwickelt wurde. Neo4j ist der bevorzugte Partner für GDC, um Graphdatenbank- und Analysefunktionen bereitzustellen.

„Die Integration von Neo4j in Google Gloud und die neuen GraphRAG-Funktionen helfen Unternehmen, GenAI schneller in der Praxis einzusetzen und Anwendungen zu entwickeln, die einen echten, produktiven Mehrwert liefern“, erklärt Sudhir Hasbe, Chief Product Officer von Neo4j. „Für uns ist die Integration und die Partnerschaft mit Google Cloud ein weiterer wichtiger Schritt, um die Stärken von Graphtechnologie, GenAI und Cloud-Computing zu bündeln und die Innovationen rund um GenAI weiter voranzutreiben.“

„Generative AI erhöht den Wert, den Kunden aus kritischen Geschäftsdaten ziehen, erheblich“, erklärt Ritika Suri, Director of Technology Partnerships bei Google Cloud. „Durch die Nutzung des Gemini KI-Modells in Google Cloud und Vertex AI kann Neo4j die Geschwindigkeit und Genauigkeit in der Entwicklung von generativer KI steigern.“

Google Cloud und Neo4j verbindet seit 2019 eine strategische Partnerschaft. Erst im April wurde Neo4j zum zweiten Mal in Folge als Google Cloud Technology Partner of the Year in der Kategorie Data Management ausgezeichnet. Neo4j war 2023 zudem der einzige native Graphanbieter, der native Produktintegrationen mit GenAI-Funktionen in Google Cloud Vertex AI einführte. Im vergangenen Jahr integrierte das Unternehmen zudem native Vektorfunktionen als Langzeitspeicher für LLMs in seine Graphdatenbank.

*Gartner “ AI Design Patterns for Knowledge Graphs and Generative AI (https://www.gartner.com/document/4436199?ref=solrAll&refval=403865348&)“ (November 2023)

Weitere Informationen finden Sie im aktuellen Blog (http://www.neo4j.com/blog/graphrag-genai-googlecloud/).

Über Neo4j
Neo4j, der führende Anbieter von Graphdatenbanken und Graph Analytics, hilft Unternehmen, Beziehungen und Muster innerhalb von Milliarden von Daten umfassend, einfach und schnell aufzudecken. Anwender nutzen diese vernetzte Datenstruktur, um innovative Lösungen für ihre dringlichsten Geschäftsprobleme zu entwickeln – von Betrugserkennung und 360-Grad-Kundenansicht, über Knowledge Graphen und Supply Chain, bis hin zu Netzwerkverwaltung und IoT. Und das unabhängig vom Datenwachstum. Neo4js umfassender Graph Stack bietet leistungsstarke Graph-Datenspeicherung mit nativer Vektorsuche, Data Science, Analytik und Visualisierung, einschließlich hoher Sicherheitseinstellungen für Enterprise-Umgebungen, skalierbarer Architektur und ACID-Konformität. Neo4j ist stolz auf seine dynamische Open-Source-Community mit mehr als 250.000 Entwicklern, Datenwissenschaftlern und Architekten sowie Hunderten von Fortune-500-Unternehmen, Regierungsbehörden und NGOs. Besuchen Sie www.neo4j.com.

GARTNER ist eine eingetragene Marke und Dienstleistungsmarke von Gartner, Inc. und/oder seinen Tochtergesellschaften in den USA und international und wird hier mit Genehmigung verwendet. Alle Rechte vorbehalten.

©2024 Neo4j, Inc., Neo Technology®, Neo4j®, Cypher®, Neo4j Bloom™, Neo4j Graph Data Science Library™, Neo4j® Aura™, und Neo4j® AuraDB™ sind eingetragene Marken oder eine Marke von Neo4j, Inc. Alle anderen Marken sind Eigentum der jeweiligen Unternehmen.

Firmenkontakt
Neo4j
Neo4j Media Hotline
. .
. .
.
http://neo4j.com/pr

Pressekontakt
Lucy Turpin Communications
Sabine Listl / Kathrin Schirmer
Prinzregentenstr. 89
81675 München
+49 89 417761-16
http://lucyturpin.de