Tag Archives: LLM

Medien

KI-Assistentin führt rund um die Uhr durch die Agenturwelt

Schnelle Antworten, klarer Fokus auf das Nutzerinteresse – dafür steht die KI-Assistentin, die ab sofort auf der Website der Werbeagentur Baumann & Baltner (baumann-baltner.de) Anfragen beantwortet.

BildLudwigsburg, im August 2025. Besucherinnen und Besucher der Website der Agentur Baumann & Baltner – https://baumann-baltner.de – erleben derzeit eine besondere Premiere: Eine KI-Assistentin begrüßt die Nutzer, beantwortet Fragen zur Agentur und präsentiert passende Inhalte. Hinter der intelligenten Lösung steht das Start-up saviros. Mit dem Showcase kann live erlebt werden, dass automatisierte Kommunikation unterhaltsam, effizient und informativ sein kann – und zugleich Zeit und Ressourcen spart.

Schnelle, sachlich korrekte Antworten, dazu ein klarer Fokus auf das Nutzerinteresse – dafür steht die KI-Assistentin, die ab sofort auf der Website der Werbeagentur Baumann & Baltner (baumann-baltner.de) Anfragen beantwortet. Entwickelt werden die virtuellen Mitarbeitenden vom Startup saviros, einer Neugründung des Teams der Werbeagentur und der Datenbank-Spezialisten des IT-Anbieters lysio aus Esslingen. Und so funktioniert’s: Mit einem Klick auf das Fenster rechts unten auf der Startseite öffnet sich der Chat-Bereich. Dort können Fragen zur Agentur direkt eingetippt werden – etwa: „Zeige mir Referenzen aus dem Bereich Wohnbau“ oder „Welche Leistungen bietet Baumann & Baltner an?“. Die Antworten erscheinen sofort, ergänzt durch Links, Grafiken und relevante Zusatzinformationen.

„Der Showcase gibt unseren Kunden die Möglichkeit, die saviros Assistenten live zu testen“, sagt Nadja Baumann, Geschäftsführerin der saviros GmbH. „Der Kunden-Support übers Web ist eine konkrete Anwendung, die sich am Beispiel leicht nachvollziehen lässt. Dabei bilden wir hier nur einen ganz kleinen Bruchteil der Möglichkeiten ab. Unsere individuellen Lösungen richten sich an alle Unternehmen, die von ihren Daten profitieren, Arbeitsabläufe automatisieren und damit Ressourcen schonen wollen.“

Echte Hilfe – rund um die Uhr

Als virtueller Kollege ist die saviros Assistentin jederzeit erreichbar, braucht keinen Urlaub und übernimmt Aufgaben, die in vielen Unternehmen bislang manuell erledigt werden. Dazu zählen etwa:

* E-Commerce: Begleitung über den gesamten Online-Einkauf hinweg
* Personalentwicklung: Unterstützung von der Anzeige bis zum Onboarding
* Verlagswesen und Medien: Abonnentenverwaltung, Autorenbetreuung
* Industrie: Datenanalyse, Datenbankpflege, interne und externe Kommunikation
* Öffentliche Institutionen: bürgernaher Rund-um-die-Uhr-Service
* Marketing & PR: Content-Erstellung, Konzeption, Grafik-Unterstützung
* Handwerk: Dokumentation, Buchhaltung, Kundenkommunikation

Die Technologie: Wissen statt suchen

Technisch betrachtet, kombiniert saviros faktenbasierte, redaktionell geprüfte Antworten mit echter Prozessausführung durch „Flows“ (vordefinierte Abläufe) und visueller Nutzerführung durch 3D-Avatare. Die KI-gestützten Assistenten übernehmen das Dokumentenmanagement und machen Unternehmenswissen sofort nutzbar. Die Assistentin beantwortet Fragen im Dialog, stellt Zusammenhänge her und liefert Antworten mit den dazugehörigen Dokumenten. Von Rechnungen über Angebote bis zu kompletten Prozessen: Die Nutzer fragen, die Assistentin liefert – sofort, strukturiert und mit Hinweis auf die verwendeten Quellen.

Das Ergebnis: massive Zeitersparnis, bessere Entscheidungen, direkter Nutzen fürs Geschäft.

Neben einer dialogorientierten Nutzerführung profitieren Unternehmen vor allem von deutlich effizienteren Abläufen. Aufgaben wie Kundenanfragen, Datenauswertung oder Prozessanstoß erfolgen automatisch – das spart wertvolle Zeit und ermöglicht eine konstant hohe Kommunikationsqualität.

Zugleich hilft die saviros Assistentin beim Aufbau einer unternehmenseigenen Wissensdatenbank. Ein weiterer Vorteil gegenüber ChatGPT & Co.: Die Assistentin greift über Retrieval Augmented Generation (RAG) auf verlässliche Inhalte zu und sorgt durch kontextabhängige Antworten für eine zielgerichtete Nutzerführung.

Sie wollen mehr über den Einsatz der saviros Assistenten erfahren?
Wir freuen uns auf Ihre Anforderungen und präsentieren gerne in einem Erstgespräch entsprechende Lösungsansätze.

Mehr Informationen finden Sie auf https://saviros.ai.
Auf dem Instagram-Kanal von Baumann & Baltner gibt es zudem ein Demo-Video: https://www.instagram.com/p/DODKl00iFMu/

saviros auf der Frankfurter Buchmesse

Die innovativen KI-Assistenten von saviros werden vom 15. bis 19. Oktober 2025 in Halle 3.1, Reihe F präsentiert – unter anderem einer Delegation des Wirtschaftsministeriums, die den Stand am 17. Oktober besucht. Für persönliche Gespräche steht das saviros Team auch auf der Messe gerne zur Verfügung.

Kontakt:
saviros GmbH
Nadja Baumann
Schorndorfer Straße 42
71638 Ludwigsburg
Mail: info@saviros.ai
Tel.: 0049/7141 688 96-46

Interviewpartner und Bildmaterial stellen wir auf Anfrage gerne zur Verfügung.

Gründungs- und Entwicklungspartner

Baumann & Baltner GmbH & Co. KG

Zukunftsprojekt zum Jubiläum: Die Baumann & Baltner GmbH mit Sitz in Ludwigsburg feiert 2024 ihr zehnjähriges Bestehen. Aktuell hat die Werbeagentur mit Wurzeln im Verlagsgeschäft zehn Mitarbeitende, mit denen Kunden aus Mittelstand und große Unternehmenskunden betreut werden. Baumann & Baltner bietet sämtliche Marketingleistungen über eigene Ressourcen und im agentureigenen Netzwerk ab. „Wir helfen von jeher mit unserer Arbeit, Zukunft zu gestalten und zu sichern“, sagt Agenturgründer Gerhard Baumann. Er hat seine 2006 gegründete Werbeagentur vor zehn Jahren mit der Online-Agentur von Uwe Baltner zusammengeführt. Baumann und Baltner haben ihre Wurzeln in Verlagswesen und im Journalismus. „Daraus haben wir die Aufgabe abgeleitet, unsere Kunden nicht nur gestalterisch zu unterstützen, sondern in der Kommunikation auf wahre und hilfreiche Inhalte zu setzen“, sagt Gerhard Baumann. Eine gute Entscheidung, denn die Kernkompetenz der Agenturmacher ist im Zeitalter von AI und Fake News gefragt wie nie.

lysio GmbH

Die lysio gmbh mit Sitz in Esslingen am Neckar ist ein Team von Softwareentwicklern, Unternehmensberatern, Ingenieuren, Analysten und Projektleitern. Mit über 20 Jahren Erfahrung bei der Realisierung unterschiedlichster Projekte für Konzernlandschaften und mittelständische Unternehmen diverser Branchen sorgt das Unternehmen für maßgeschneiderte digitale Lösungen.

Verantwortlicher für diese Pressemitteilung:

saviros GmbH
Frau Nadja Baumann
Schorndorfer Str. 42
71638 Ludwigsburg
Deutschland

fon ..: 071416889654
web ..: https://saviros.ai
email : n.baumann@saviros.de

Die saviros GmbH ist ein Unternehmen, das digitale, KI-gestützte Assistenten entwickelt, die Unternehmen dabei unterstützen, in Bereichen wie Kommunikation, Vertrieb und Support Zeit und Ressourcen zu sparen. Die zugrunde liegende Technologie ist KI-basiert, zum Patent angemeldet und erfüllt DSGVO-Konformität über eine sichere europäische Cloud-Lösung.

saviros ermöglicht durch internen Zugriff auf Wissensdatenbanken und Prozessautomatisierung enorme Produktivitäts- und Effizienzsteigerungen, Kostenreduktion sowie eine verbesserte Kundenzufriedenheit, während Mitarbeitende von repetitiven Aufgaben entlastet werden. Die Einsatzmöglichkeiten reichen von individueller Produktberatung über schnellen Wissenstransfer bis hin zu Schulungen und Presseanfragen. Für Industrie- und Dienstleistungsunternehmen automatisiert die saviros GmbH Prozesse in Bereichen wie Qualitätssicherung, Instandhaltung, Vertrieb und Support.

Pressekontakt:

saviros GmbH
Frau Nadja Baumann
Schorndorfer Str. 42
71638 Ludwigsburg

fon ..: 071416889654
email : n.baumann@saviros.de

Medien

Reply kündigt Zusammenarbeit mit OpenAI an

Das Unternehmen für Systemintegration und IT-Beratung ist ab sofort offizieller OpenAI Services Partner.

BildReply, ein weltweit führendes Unternehmen für Systemintegration und IT-Beratung, gibt seine Zusammenarbeit mit OpenAI bekannt und ist ab sofort offizieller OpenAI Services Partner. Damit zählt Reply zu einem exklusiven Kreis global anerkannter Unternehmen mit ausgewiesener Kompetenz in der Umsetzung skalierbarer, produktionsreifer KI-Lösungen.

Die Auszeichnung unterstreicht die technische Expertise von Reply, die sich in zahlreichen erfolgreichen Kundenprojekten widerspiegelt. Durch den Einsatz spezialisierter KI-Modelle entwickelt Reply Lösungen, die gezielt zentrale Bereiche wie Mitarbeiterproduktivität, Customer Experience und Softwareentwicklung voranbringen. Diese Lösungen adressieren vielfältige Geschäftsszenarien und lassen sich drei strategischen Schwerpunkten zuordnen: Produktentwicklung, Conversational Agents & Virtual Assistants sowie dem Software Development Lifecycle (SDLC).

Mit innovativen Ansätzen in der Produktentwicklung unterstützt Reply Unternehmen dabei, neue kreative Potenziale zu erschließen und Benutzererlebnisse durch den Einsatz von KI weiterzuentwickeln. Dazu gehören KI-basierte Designtools, die traditionelle Fertigungsprozesse mit einer neuen, durch Algorithmen erzeugten Ästhetik verbinden – etwa bei der KI-gestützten Gestaltung von Keramikfliesen – sowie die Verwirklichung personalisierter Reiseerlebnisse mit Hilfe von kontextsensitiven, sprachbasierten Benutzeroberflächen. Darüber hinaus verwirklicht Reply KI-basierte Plattformen, die das Kundenverhalten analysieren und strukturierte sowie unstrukturierte Daten in verwertbare Erkenntnisse verwandeln.

Im Bereich der Conversational Agents & Virtual Assistants hat Reply intelligente, branchenspezifische Anwendungen entwickelt, die die Interaktion mit digitalen Services verbessern. Dazu zählen KI-gestützte Assistenten für Kunden, die schnellere und präzisere Antworten im Versicherungs- und Supportbereich liefern, digitale HR-Assistenten, die Mitarbeitern den Zugang zu internen Informationen erleichtern, sowie virtuelle Agenten, die in IoT-Umgebungen eingebunden sind und Warnmeldungen und Kontextinformationen bereitstellen. Alle diese Lösungen sind genau auf die operativen Anforderungen und Ziele der jeweiligen Unternehmen abgestimmt.

Im Software Development Lifecycle (SDLC) nutzt Reply KI-Modelle, um sämtliche Phasen des Entwicklungsprozesses zu optimieren und zu automatisieren – von der Anforderungsanalyse über Codierung, Testing und Deployment bis hin zu Betrieb und Monitoring. Funktionen wie kontextbezogene Code-Reviews, automatische Dokumentation oder die Übersetzung von Designvorgaben in Code sind direkt in die Entwicklungs-Pipelines der Kunden integriert und ermöglichen effizientere Prozesse, geringere Fehlerraten und eine schnellere Time-to-Market.

Zusätzlich hat Reply auf Basis von OpenAI-Technologien eine Reihe sogenannter Prebuilt AI Apps entwickelt – sofort einsetzbare KI-Anwendungen, die gezielt bestimmte Aufgaben oder komplette Prozesse in Unternehmen automatisieren. Mit ihrer hohen Wiederverwendbarkeit und dem minimalem Anpassungsaufwand erlauben sie es Unternehmen, KI schneller und kosteneffizienter zu integrieren. Die Einsatzgebiete reichen von Einkauf und Versicherung bis hin zu Marketing, HR und Compliance: So können im Versicherungsbereich beispielsweise Daten aus Rechnungen und medizinischen Berichten automatisch extrahiert und strukturiert werden, um das Schadenmanagement effizienter zu gestalten. Im Marketing erleichtern intelligente Agenten die Erstellung von Kampagnenbriefings, indem sie wertvolle Einblicke in Kundenverhalten, Markttrends und Wettbewerbsdaten liefern.

Mit fundierter KI- und Cloud-Expertise sowie einem tiefen Verständnis für Systemintegration befähigt Reply Unternehmen dazu, die OpenAI-APIs gezielt und wirkungsvoll einzusetzen. Ziel der Partnerschaft ist es, Kunden praxisnah durch die Einführung und Skalierung von KI zu begleiten – mit Fokus auf Business Impact, User Experience und eine sichere Umsetzung.

Das OpenAI Services Partner Program zeichnet Unternehmen aus, die nachweislich KI-Lösungen mit konkretem Geschäftsnutzen realisieren. Als Teil dieses Partnernetzwerks wird Reply seine Kunden weiterhin bei der Entwicklung und dem großflächigen Rollout von KI-Anwendungen unterstützen.

Reply 
Reply [EXM, STAR: REY, ISIN: IT0005282865] ist spezialisiert auf die Entwicklung und Implementierung von Lösungen basierend auf neuen Kommunikationskanälen und digitalen Medien. Als Netzwerk hochspezialisierter Unternehmen definiert und entwickelt Reply Geschäftsmodelle, die durch die neuen Modelle von KI, Big Data, Cloud Computing, digitalen Medien und dem Internet der Dinge ermöglicht werden. Reply bietet Beratungs-, Systemintegrations- und digitale Dienstleistungen für Unternehmen aus den Bereichen Telekommunikation und Medien, Industrie und Dienstleistungen, Banken und Versicherungen sowie dem öffentlichen Sektor. www.reply.com
 
 
Pressekontakt:
 
Reply
Fabio Zappelli
f.zappelli@reply.com
Tel. +39 0117711594
 
Irene Caia
i.caia@reply.com
Tel. +39 02535761

Verantwortlicher für diese Pressemitteilung:

Reply Deutschland SE
Sandra Dennhardt
Uhlandstraße 2
60314 Frankfurt am Main
Deutschland

fon ..: +49 170 4546229
web ..: http://www.reply.com
email : s.dennhardt@reply.de

Pressekontakt:

Reply Deutschland SE
Sandra Dennhardt
Uhlandstraße 2
60314 Frankfurt am Main

fon ..: +49 170 4546229
web ..: http://www.reply.com
email : s.dennhardt@reply.de

Medien

LLM Benchmarking für die Versicherungswirtschaft: Balanceakt zwischen Performance und Sicherheit

KI-Experten von Insiders vergleichen anhand realer Daten aus der Versicherungswirtschaft Leistung, Datenschutz und Kosten aktueller LLM und können kundenspezifisch das optimale Setup empfehlen.

BildKaiserslautern, 13.06.2025 – Insiders Technologies, technologisch führender Anbieter von Software für Intelligent Automation (IA), veröffentlicht sein zweites LLM Benchmarking für die Finanz- und Versicherungsbranche. Das Tool vergleicht die Leistung einzelner Large Language Models (LLM) basierend auf einem standardisierten IDP-Datensatz mit realen Dokumenten aus der Versicherungs- und Finanzwelt. Für die aktuelle Q2-Ausgabe des Benchmarks haben die Expertinnen und Experten von Insiders 25 Modelle getestet, darunter neue, leistungsstarke LLM wie Claude 3.7 Sonnet, Gemini 2 Flash, Llama 3.3 70b und DeepSeek.

Lag der Fokus beim ersten LLM Benchmarking im ersten Quartal primär noch auf der reinen Performance in den Bereichen Informationsklassifikation und -extraktion, wurden nun zusätzlich Geschwindigkeit, Datenschutz und relative Kostenstruktur berücksichtigt – entscheidende Kriterien für den produktiven Einsatz im IDP-Umfeld.

In der Analyse hat insbesondere Gemini 2 Flash durch außerordentlich hohe Effizienz in der Ausgabe und Verarbeitungsgeschwindigkeit überzeugt. Damit bietet das LLM einen entscheidenden Vorteil für die schnelle Bearbeitung großer Datenmengen in zeitkritischen Verfahren.

Nach wie vor liegen die globalen Modelle im aktuellen Vergleich vorn. Den ersten Platz im Gesamtranking sicherte sich das Modell Claude 3.7 Sonnet von Anthropic mit einem Score von 90,17, dicht gefolgt vom Sieger des Januar-Rankings Claude Sonnet 3.5 mit 89,61 Punkten. Auf dem dritten Platz landete eines der bekanntesten Modelle: GPT-40 von Open AI mit einem Score von 86,33.

Auch das auf Datenschutz und Compliance optimierte Insiders Private LLM findet sich im Vergleich. Das vollständig in der nach ISO 27001-zertifizierten Insiders-Cloud betriebene Modell mit höchstem Datenschutzlevel ist ein bewusstes Tradeoff speziell für sensible Dokumententypen wie SEPA-Mandate oder medizinische Daten. Hoher Datenschutz, volle Kontrolle, lokale Verarbeitung und höchste Transparenz zeichnen das Modell aus. Damit eignet es sich besonders für informationssensible Branchen wie die Versicherungs- und Finanzbranche.

Mit seinem Benchmarking veranschaulicht Insiders Technologies die Herausforderung, den Balanceakt zwischen Performance und Sicherheit zu meistern. Mit seinem Brest-of-Breed-Ansatz begegnet das Unternehmen dieser Herausforderung, indem es die leistungsfähigsten LLMs auf dem Markt identifiziert und über seine OvAItion Engine in all seinen Produkten integriert. Damit haben die Kunden die Möglichkeit, dass für ihren jeweiligen Anwendungsfall optimale Setup auszuwählen und angepasst an ihre individuellen Bedürfnisse das Level an Performance und Sicherheit zu erreichen, das sie tatsächlich benötigen.

„Gerade in hochregulierten Branchen wie der Versicherungswirtschaft kommt es nicht nur auf die reine Leistung eines LLM an, sondern auch auf Aspekte wie Datenschutz, Kostenkontrolle und Verarbeitungsgeschwindigkeit“, erklärt Dr. Alexander Lück, Team OvAItion/Data Management und Verantwortlicher für das LLM Benchmarking bei Insiders Technologies. „Unser Benchmark zeigt, dass es kein Modell für alle Fälle gibt. Stattdessen ermöglichen wir unseren Kunden, mit einem maßgeschneiderten Setup aus führenden LLMs und unserem Private-Modell die optimale Balance aus Effizienz und Sicherheit zu finden.“

Erscheint ein neues Modell auf dem Markt, wird dieses im aktuellen Insiders LLM Benchmarking auf die Probe gestellt und mit den bisherigen LLMs verglichen. Die gewonnen Erkenntnisse fließend direkt in die Produktentwicklung ein und sorgen für eine dauerhaft hohe Qualität für die Insiders-Kunden.

Die aktuelle Ausgabe Q2-2025 des LLM Benchmarkings kann hier kostenlos bezogen werden:
https://insiders-technologies.com/wp-content/uploads/2025/06/Onepager_PDF_Benchmarking_Mai_2025_DE-2.pdf

Weitere Informationen zur intelligenten Prozessautomatisierung in der Versicherungswirtschaft:
https://insiders-technologies.com/de/insurance-automation

Zusammenfassung
KI-Experten von Insiders Technologies vergleichen in ihrem aktuellen LLM Benchmarking Leistung, Datenschutz und Kosten von LLM für die Versicherungs- und Finanzbranche und finden kundenspezifisch das je nach Anwendungsfall optimale Setup.

Verantwortlicher für diese Pressemitteilung:

Insiders Technologies
Frau Lisa Holländer
Brüsseler Str. 1
67657 Kaiserslautern
Deutschland

fon ..: +49 631 / 92081 1620
web ..: https://www.insiders-technologies.com
email : l.hollaender@insiders-technologies.de

Insiders Technologies ist technologisch führender und marktetablierter Anbieter von Software zur intelligenten Automatisierung von Geschäftsprozessen (Intelligent Automation, IA). Mehr als 5.000 Kunden aus allen Branchen vertrauen bei der Optimierung ihrer dokumentzentrierten Geschäftsprozesse auf die innovativen Lösungen des Produkthauses aus Kaiserslautern. Als erfolgreichstes Spin-Off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) hat es sich Insiders zur Aufgabe gemacht, modernste KI in echten Kundennutzen zu überführen. Dank neuester Deep Learning-Technologien verstehen die Software-Lösungen heterogene Inhalte, extrahieren geschäftsrelevante Informationen, automatisieren Transaktionen und verkürzen Reaktionszeiten. Dabei sind der technologische Pioniergeist und die Agilität ein Garant für kontinuierliche Innovationen und Produkte am Puls der Zeit. https://www.insiders-technologies.com/

Pressekontakt:

bloodsugarmagic GmbH & Co. KG
Herr Bernd Hoeck
Gerberstr. 63
78050 Villingen-Schwenningen

fon ..: +49 7721 / 9461 – 220
email : insiderstechnologies@bloodsugarmagic.com

Medien

Akamai verbessert KI-Anwendungen mit der Einführung von Akamai Cloud Inference

Neuer Service ermöglicht Unternehmen eine Verbesserung des Durchsatzes um das Dreifache, 60 Prozent weniger Latenz und 86 Prozent niedrigere Kosten im Vergleich zu traditionellen Hyperscalern.

Cambridge, Massachusetts (USA) / München – 27. März 2025 | Akamai (NASDAQ: AKAM), führender Anbieter für Cybersicherheit und Cloud Computing, präsentierte heute Akamai Cloud Inference. Diese Lösung fördert eine schnellere und effizientere Innovationswelle für Organisationen, die Predictive und Large Language Models (LLMs) in praktische Anwendungen umsetzen wollen. Akamai Cloud Inference läuft auf der Akamai Cloud, der weltweit am weitesten verteilten Plattform, um die zunehmenden Einschränkungen zentralisierter Cloud-Modelle zu adressieren.

„KI-Daten näher an Benutzer und Geräte zu bringen, ist eine Herausforderung, an der herkömmliche Cloud-Systeme oft scheitern“, erläutert Adam Karon, Chief Operating Officer und General Manager der Cloud Technology Group bei Akamai. „Während das aufwendige Training von LLMs weiterhin in großen Hyperscaler-Rechenzentren stattfindet, verlagert sich die praktische Arbeit des Inferencing an die Edge. Hier kommt das Netzwerk zum Tragen, das Akamai in den letzten zweieinhalb Jahrzehnten aufgebaut hat. Es wird für die Zukunft der KI entscheidend sein und unterscheidet uns von jedem anderen Cloud-Anbieter im Markt.“

KI-Inferenz auf der Akamai Cloud

Akamais neue Lösung bietet Platform Engineers und Entwicklern Werkzeuge zum Aufbau und Betrieb von KI-Anwendungen und datenintensiven Workloads nahe am Endnutzer. Dies ermöglicht einen dreifach höheren Durchsatz bei gleichzeitiger Reduzierung der Latenz um das bis zu zweieinhalbfache. Mit Akamais Lösung können Unternehmen bei KI-Inferenz und agentenbasierten KI-Workloads im Vergleich zu traditioneller Hyperscaler-Infrastruktur bis zu 86 Prozent der Kosten einsparen. Akamai Cloud Inference umfasst:

Rechenleistung: Die Akamai Cloud bietet ein vielseitiges Compute Portfolio, von klassischen CPUs für fein abgestimmte Inferenz bis hin zu leistungsstarken beschleunigten Rechenoptionen in GPUs und maßgeschneiderten ASIC VPUs. Dies gewährleistet die optimale Leistung für verschiedenste KI-Inferenz-Anforderungen. Akamai integriert sich in Nvidias AI Enterprise-Ökosystem und nutzt Triton, TAO Toolkit, TensorRT und NVFlare zur Leistungsoptimierung der KI-Inferenz auf Nvidia GPUs.

Datenmanagement: Akamai ermöglicht Kunden, das volle Potenzial der KI-Inferenz mit einer hochmodernen Datenstruktur zu erschließen, die speziell für moderne KI-Workloads entwickelt wurde. In Zusammenarbeit mit VAST Data bietet Akamai optimierten Zugang zu Echtzeitdaten, um inferenzbezogene Aufgaben zu beschleunigen. Auf dieser Basis liefert Akamai relevante Ergebnisse sowie ein responsives Erlebnis. Dies wird durch hochskalierbaren Objektspeicher ergänzt, um das Volumen und die Vielfalt von Datensätzen zu verwalten, die für KI-Anwendungen kritisch sind. Die Integration führender Vektordatenbank-Anbieter wie Aiven und Milvus ermöglicht Retrieval Augmented Generation (RAG). Mit diesem Datenmanagement-Stack speichert Akamai fein abgestimmte Modelldaten und Trainingsartefakte sicher für eine KI-Inferenz mit niedriger Latenz im globalen Maßstab.

Containerisierung: Die Containerisierung von KI-Workloads ermöglicht bedarfsbasierte automatische Skalierung, verbesserte Anwendungsresilienz und Hybrid-/Multicloud-Portabilität bei gleichzeitiger Optimierung von Leistung und Kosten. Mit Kubernetes liefert Akamai schnellere, günstigere und sicherere KI-Inferenz im Petabyte Bereich. Unterstützt wird dies durch die Linode Kubernetes Engine (LKE)-Enterprise, eine neue Enterprise-Edition der Akamai Cloud Kubernetes-Orchestrierungsplattform, die speziell für große Unternehmens-Workloads entwickelt wurde, sowie die kürzlich angekündigte Akamai App Platform. Akamai Cloud Inference ist damit in der Lage, über eine KI-fähige Plattform aus nahtlos integrierten Open-Source-Kubernetes-Projekten, einschließlich KServe, Kubeflow und SpinKube schnell und effizient KI-Modelle für Inferenz bereitzustellen.

Edge-Computing: Zur Vereinfachung der Entwicklung KI-gestützter Anwendungen umfasst Akamai AI Inference WebAssembly (WASM)-Funktionen. In Zusammenarbeit mit WASM-Anbietern wie Fermyon ermöglicht Akamai Entwicklern, Inferencing für LLMs direkt über Serverless-Funktionen auszuführen. Dies ermöglicht es Kunden, kompakten Code an der Edge für echtzeitkritische Anwendungen zu nutzen.

Diese Tools bilden zusammen eine leistungsstarke Plattform für latenzarme, KI-gestützte Anwendungen. Sie ermöglicht Unternehmen die von ihren Nutzern geforderten Anforderungen zu erfüllen. Akamai Cloud Inference läuft auf der massiv verteilten Plattform des Unternehmens, das konsistent mehr als ein Petabyte pro Sekunde Durchsatz für datenintensive Workloads liefern kann. Mit mehr als 4.200 Standorten in über 1.200 Netzwerken in mehr als 130 Ländern weltweit macht die Akamai Cloud Rechenressourcen von der Cloud bis zur Edge verfügbar, beschleunigt gleichzeitig die Anwendungsleistung und erhöht die Skalierbarkeit.

Die Verlagerung von KI-Training zu KI-Inferenz

Mit der zunehmenden Etablierung von KI erkennen Unternehmen, dass der Hype um LLMs den Fokus von praktischen KI-Lösungen abgelenkt hat, die besser geeignet sind, spezifische Geschäftsprobleme zu lösen. LLMs eignen sich hervorragend für allgemeine Aufgaben wie Zusammenfassung, Übersetzung und Kundenservice. Diese sehr großen Modelle sind jedoch teuer und zeitaufwändig zu trainieren.

Viele Unternehmen sehen sich durch architektonische und kostenbezogene Anforderungen eingeschränkt, einschließlich Rechenzentren und Rechenleistung, gut strukturierte, sichere und skalierbare Datensysteme sowie die Herausforderungen, die Standort- und Sicherheitsanforderungen an die Entscheidungslatenz stellen. Leichtgewichtige KI-Modelle, die entwickelt wurden, um spezifische Geschäftsprobleme zu lösen, können für einzelne Branchen optimiert werden. Sie nutzen proprietäre Daten, um messbare Ergebnisse zu erzielen und liefern heute eine höhere Profitabilität für Unternehmen.

KI-Inferenz benötigt eine stärker verteilte Cloud

Daten werden zunehmend außerhalb zentralisierter Rechenzentren oder Cloud-Standorten generiert. Diese Verschiebung treibt die Nachfrage nach KI-Lösungen an, die die Datengenerierung näher am Ursprungsort nutzen. Das verändert grundlegend die Infrastrukturbedürfnisse, da Unternehmen über den Aufbau und das Training von LLMs hinausgehen, um Daten für schnellere und intelligentere Entscheidungen zu nutzen und in personalisiertere Erfahrungen zu investieren.

Unternehmen erkennen, dass sie mehr Wert generieren können, indem sie ihre Geschäftsabläufe und -prozesse mit KI verwalten und verbessern. Verteilte Cloud- und Edge-Architekturen erweisen sich als bevorzugt für Anwendungsfälle der Echtzeitanalyse von Betriebsdaten. Sie liefern Einblicke über verteilte Assets hinweg in Echtzeit, selbst in entfernten, schlecht angebundenen Umgebungen.

Erste Anwendungsfälle von Unternehmen auf der Akamai Cloud umfassen Sprachassistenz im Fahrzeug, KI-gestützte Pflanzenbewirtschaftung, Bildoptimierung für Marktplätze für Konsumgüter, virtuelle Bekleidungsvisualisierung im Einkaufserlebnis, automatisierte Generierung von Produktbeschreibungen und Stimmungsanalysen für Kundenfeedback.

„Das Training eines LLM ist wie das Erstellen einer Karte – es erfordert das Sammeln von Daten, die Analyse des Terrains und das Planen von Routen. Dieser Prozess ist langsam und ressourcenintensiv, aber einmal erstellt, ist es sehr nützlich. KI-Inferenz, ist wie die Verwendung eines GPS, das dieses Wissen sofort anwendet, in Echtzeit neu berechnet und sich an Änderungen anpasst, um dahinzugelangen wo man hinmöchte.“, erklärt Karon. „Inferenz ist das nächste Pionierland für KI.“

Verantwortlicher für diese Pressemitteilung:

Akamai Technologies
Frau Helen Farrier
— —
— —
Deutschland

fon ..: 0211-54-087-725
fax ..: —
web ..: https://www.akamai.com/de
email : akamai-pr@fleishman.com

Über Akamai
Akamai ist ein führender Anbieter für Cybersicherheit und Cloud Computing. Mit ausgefeilten Sicherheitslösungen, Threat Intelligence und einem globalen Betriebsteam stellt Akamai umfassende Abwehrmaßnahmen bereit, um kritische Daten und Anwendungen an jedem Touchpoint zu schützen. Die Cloud-Computing-Lösungen bieten als Full-Stack-Gesamtpaket zuverlässige Performance auf der weltweit am stärksten verteilten Plattform. Globale Unternehmen vertrauen auf Akamai für die branchenführende Zuverlässigkeit, Skalierbarkeit und Expertise, die sie benötigen, um ihr Geschäft auszubauen. Weitere Informationen gibt es unter akamai.com und akamai.com/blog sowie auf X und LinkedIn.

Pressekontakt:

FleishmanHillard Germany GmbH
Frau Ann-Charlott Stegbauer
Blumenstraße 28
80331 München

fon ..: 089 23031628
web ..: http://www.fleishman.de
email : akamai-pr@fleishman.com

Medien

Deutsches Startup nutzt künstliche Intelligenz um medizinische Befunde verständlich zu machen

Befund erhalten – und jetzt? Ein Berliner Startup macht Schluss mit medizinischem Fachchinesisch und übersetzt Arztbriefe mit KI in verständliche Sprache. Einfach, anonym, und per Foto in Sekunden.

BildEin Arztbesuch kann beruhigen – oder verunsichern. Denn was passiert, wenn man seinen eigenen Befund nicht versteht oder sehr lange auf einen Arzttermin warten muss? Wenn Fachbegriffe wie „subdurales Hämatom“ oder „maligne Neoplasie“ mehr Fragen aufwerfen als Antworten liefern? Studien zeigen: Medizinische Fachsprache stellt für viele Menschen eine erhebliche Hürde dar. So verstehen 42,3 % der Patienten bei der Entlassung ihre Diagnose nicht. Über die Hälfte der Bevölkerung (54,3%) tut sich schwer mit Gesundheitsinformationen – sei es in Arztbriefen oder Befunden. Doch wer nicht versteht, was mit ihr oder ihm passiert, kann auch keine informierten Entscheidungen für die eigene Gesundheit treffen.

Das Berliner Startup Simply Onno will das nun ändern.

Ihr kostenloser Web-Service übersetzt medizinische Befunde in eine leicht verständliche Sprache. Dokumente können einfach abfotografiert werden und sind innerhalb weniger Sekunden verständlich übersetzt.

_’Viele Menschen stehen nach einem Arztbesuch oder einer medizinischen Untersuchung ratlos vor ihren Befunden. Die persönlichen Gespräche mit Ärzt:innen sind oft kurz und die Wartezeit auf den nächsten Termin kann lang sein. In dieser Unsicherheit möchten wir eine Stütze sein.‘ _erklärt Karen Hentschel, Gründerin von Simply Onno. ‚_Mit unserem Service helfen wir Menschen, ihre Gesundheitsinformationen besser zu verstehen und selbstbestimmtere Entscheidungen zu treffen‘ _

Das interdisziplinäre Team hinter Simply Onno besteht aus den Designer:innen Karen Hentschel, Stephan Thiel und Marc Tiedemann sowie dem Neurochirurgen PD Dr. med. Witold Polanski. Nach einjähriger Entwicklungs- und Testphase mit Fokus auf Benutzerfreundlichkeit und Übersetzungsqualität steht die Plattform nun der Öffentlichkeit zur Verfügung.

Das Wort ‚Simply‘ im Namen steht auch für ihr Versprechen an Nutzerfreundlichkeit und Datenschutz. Simply Onno verzichtet gänzlich auf Benutzerkonten, speichert keine personenbezogenen Daten und verarbeitet hochgeladene Informationen ausschließlich anonymisiert.

Der Service ist zunächst unter www.simply-onno.com für den deutschsprachigen Raum verfügbar. Eine englischsprachige Version ist bereits in Arbeit, um noch mehr Menschen einen verständlichen Zugang zu ihren Gesundheitsinformationen zu ermöglichen.

_Quellen:_
_Understanding of their Diagnosis and Treatment Plans During Discharge in Emergency Ward in a Tertiary Care Centre: A Qualitative Study. JNMA J Nepal Med Assoc. 2019 Sep-Oct;57(219):357-360. doi: 10.31729/jnma.4639._

_Schaeffer, D., Berens, E.-M., Gille, S., Griese, L., Klinger, J., de Sombre, S., Vogt, D., Hurrelmann, K. (2021). Gesundheitskompetenz der Bevölkerung in Deutschland – vor und während der Corona Pandemie: Ergebnisse des HLS-GER 2. Bielefeld: Interdisziplinäres Zentrum für Gesundheitskompetenzforschung (IZGK), Universität Bielefeld. DOI: https://doi.org/10.4119/unibi/2950305_

Backgrounder, factsheet & Mediakit hier

Verantwortlicher für diese Pressemitteilung:

Simply Onno GmbH
Herr Marc Dantas Tiedemann
Sophienstraße 18
10178 Berlin
Deutschland

fon ..: ?+49 174 6504251?
web ..: https://www.simply-onno.com/
email : marc@simply-onno.com

Die Simply Onno GmbH ist ein Berliner KI-Startup, das 2024 gegründet wurde, um medizinisches Wissen für Patienten verständlicher zu machen. Das Unternehmen arbeitet remote aus Berlin, München und Dresden und finanziert sich aktuell eigenständig ohne Investoren. Der Web-Service von Simply Onno übersetzt medizinische Dokumente mithilfe moderner Sprachmodelle und KI verständlich und zuverlässig, kontrolliert durch ein ärztliches Expertenteam.

Das Gründungsteam vereint Expertise aus Design, Medizin und Digital Health: Karen Hentschel (ehemals IDEO) verantwortet Strategie und Design, Marc Dantas Tiedemann (Mitgründer von Heartbeat Medical) leitet das operative Geschäft, Stephan Thiel (Studio NAND) verantwortet die Technik, und Neurochirurg Dr. Witold Polanski stellt die medizinische Qualität sicher.

Pressekontakt:

Simply Onno GmbH
Herr Marc Dantas Tiedemann
Sophienstraße 18
10178 Berlin

fon ..: ?+49 174 6504251?
email : marc@simply-onno.com