Amazon Web Services hat am 29. April eine bedeutende Erweiterung seiner Partnerschaft mit OpenAI angekündigt und OpenAIs neueste Fähigkeiten in seine Cloud-Infrastruktur integriert. Die Erweiterung bringt drei neue Angebote in Amazon Bedrock: OpenAIs neueste Modelle (begrenzte Vorschau), den Codex-Programmieragenten (begrenzte Vorschau) und OpenAI-gestützte Managed Agents (begrenzte Vorschau).
Partnerschaftserweiterungsdetails
Ab sofort können Kunden die neuen OpenAI-Fähigkeiten über eine einheitliche API und ein Steuer-Dashboard nutzen. Diese Integration ist darauf ausgelegt, die Entwicklung von unternehmensorientierten KI-Anwendungen zu beschleunigen und es Organisationen zu ermöglichen, OpenAIs Modelle neben der Cloud-Infrastruktur von AWS über eine einzige Oberfläche einzusetzen.
Verfügbare Angebote
Die drei Komponenten, die jetzt in einer begrenzten Vorschau verfügbar sind, sind:
- OpenAI Neueste Modelle: AWS-Kunden können jetzt direkt über Bedrock auf OpenAIs aktuellste Modellversionen zugreifen.
- Codex-Programmieragent: Ein Code-Generierungstool, das von OpenAIs Codex angetrieben wird und in einer begrenzten Vorschau verfügbar ist.
- Managed Agents: Von OpenAI unterstützte Managed-Agent-Dienste, die in die Bedrock-Plattform integriert sind.
Alle drei Angebote befinden sich derzeit im Status einer begrenzten Vorschau; der Zugang wird über die einheitliche Bedrock-API und das Bedienfeld bereitgestellt.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Parag Agrawals Parallel sammelt $100M -Serie-B für KI-Agentensuche-Infrastruktur
Laut Beating hat Parallel Web Systems, gegründet vom ehemaligen Twitter-CEO Parag Agrawal, eine $100 -Millionen-Runde der Serie B abgeschlossen, angeführt von Sequoia Capital, und das Unternehmen mit $2 Milliarden bewertet. Kleiner Perkins, Index Ventures und Khosla Ventures nahmen ebenfalls teil. Die Finanzierung erfolgt sechs Monate, nachdem das Unternehmen Millionen in der Serie A mit einer Bewertung von Millionen aufgebracht hat und seine Bewertung damit nahezu verdreifacht hat.
Parallel baut Web-Suchinfrastruktur für KI-Agenten auf, die komplexe Rechercheaufgaben übernehmen, etwa Investmentanalysen und die Bearbeitung von Versicherungsansprüchen. Das Unternehmen beschäftigt derzeit etwa 50 Mitarbeitende und bedient über 100.000 Entwickler. Das Legal-KI-Unternehmen Harvey, ein wichtiger Kunde, nutzt die Infrastruktur von Parallel, um zu steuern, auf welche Websites Agenten zugreifen können.
GateNews18M her
DeepSeek-Multimodal-Forscher deutet neues Vision-Modell am 29. April an
Am 29. April hat ein Forscher aus dem DeepSeek-Multimodal-Team, Xiaokang Chen, auf X gepostet: „Jetzt sehen wir dich“, begleitet von zwei Bildern des DeepSeek-Wal-Maskottchens – eines mit geschlossenen Augen und das andere mit offenen Augen. Der Beitrag scheint auf ein bevorstehendes Vision-Modell hinzuweisen und passt damit zu Chens Rolle als Forscher im DeepSeek-Multimodal-Team. Dee
GateNews58M her
LG erweitert Partnerschaft mit Nvidia auf physische KI und deckt Robotik sowie Rechenzentren ab
Gate News-Nachricht, 29. April — LG Electronics aus Südkorea hat in einer Telefonkonferenz zu den Ergebnissen für das erste Quartal 2026 angekündigt, dass es seine Zusammenarbeit mit Nvidia in Richtung physische KI ausbaut. Geplante Projekte umfassen Robotik, Mobilität und Rechenzentren.
LG plant, seinen Home-Roboter CLOiD mit Nvidia zu integrieren
GateNews1Std her
Claude: Chinesische Sprach-Tokenisierungskosten 65% höher als Englisch, OpenAI nur 15% mehr
Gate News-Meldung, 29. April — Der KI-Forscher Aran Komatsuzaki führte eine vergleichende Analyse der Tokenisierungs-Effizienz über sechs große KI-Modelle hinweg durch, indem er Rich Suttons wegweisende Arbeit „The Bitter Lesson“ in neun Sprachen übersetzte
GateNews1Std her
Halbleiteranalysten sind optimistisch in Bezug auf den KI-Boom: „Noch mindestens drei Jahre“ – Fortgeschrittene Verpackung ist die Engstelle der Branche
Bubble Boi sagt, dass die KI-Investitionszyklen sich noch in einem frühen Stadium befinden; er erwartet mindestens weitere drei Jahre an Aufwärtsentwicklung und plant nicht, Gewinne zu realisieren. Er ist der Ansicht, dass fortgeschrittenes Packaging der wahre Engpass für Halbleiter ist und dass man innerhalb desselben Packages mehr HBM sowie größere Chips integrieren müsse. Er ist bullisch in Bezug auf NAND/Flash; die Preise könnten weiter steigen, und in Zukunft könnte er auch in die Flash-Lieferkette einsteigen. Seine persönliche Strategie besteht darin, sich Geld zu leihen, um nachzukaufen, und mit seinem ingenieurpraktischen Hintergrund die technischen Details zu verstehen; er glaubt, dass dies ein Vorteil sei.
ChainNewsAbmedia2Std her
OpenAI-Forscher: KI-Systeme könnten die meisten Forschungsarbeiten innerhalb von zwei Jahren bewältigen
Gate News-Nachricht, 29. April — OpenAI-Forscher Sébastien Bubeck und Ernest Ryu sagen, KI-Systeme könnten innerhalb von zwei Jahren die meisten menschlichen Forschungsarbeiten übernehmen und stellen Mathematik als klare Messgröße für den Fortschritt von KI dar. Im Gegensatz zu vagen Leistungstests bieten mathematische Probleme eine präzise Überprüfung: Die Antworten sind entweder richtig oder falsch — und lassen keinen Raum für Mehrdeutigkeit.
GateNews2Std her