Red Hat、AIスケーリング向けにOpenShift AI 3.3をリリース

Red Hatは、AIプロジェクトをパイロット段階から本格生産環境へ移行させることを目的としたプラットフォームOpenShift AI 3.3を公開しました。このリリースには、AIの開発とデプロイを効率化するツールが含まれています。2026年3月13日に発表されました。

Red Hatは2026年3月13日、組織が人工知能イニシアチブをスケールアップするためのソリューションとしてOpenShift AI 3.3の提供を発表しました。このプラットフォームは、AIを実験的なパイロットから運用プロダクション環境への移行における一般的な課題に対処するよう設計されています。nn発表で強調された主な機能には、中央集権的な資産を管理するためのAIハブ、モデルデプロイを効率化するためのModels-as-a-Service (MaaS)、生成AIアプリケーションを構築するためのGen AIスタジオ、および継続的な評価と最適化の機能が含まれます。これらのコンポーネントは、AIチームにより統合的で効率的なワークフローを提供することを目指しています。nnこのリリースは実践的な進展を強調しており、Red Hatはユーザーに対して「立ち止まるのをやめて、スケーリングを始めよう」と呼びかけています。詳細については、同社が更新の完全な内訳を案内しています。

関連記事

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
AIによって生成された画像

Linux Foundation announces AI security initiative with tech partners

AIによるレポート AIによって生成された画像

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

SoftBank, Japan's leading mobile operator by data volume, is leveraging AI-RAN technology to enhance asset utilization in its dense network. The company is focusing on coordination to optimize spectrum and computing infrastructure. It uses Red Hat OpenShift to improve power consumption and networking performance.

AIによるレポート

Salesforce has announced it will stop developing new features for its Heroku cloud AI platform. The decision means Heroku users will no longer receive updates to add new capabilities. The news was reported on February 10, 2026.

Researchers have used artificial intelligence to identify a significant performance boost in Linux's IO_uring subsystem. The discovery reveals a 50-80x improvement in efficiency. This finding highlights AI's role in optimizing open-source software.

AIによるレポート

Red Hat and NVIDIA have achieved industry-leading results in the latest MLPerf Inference v6.0 benchmarks for vision, speech, and reasoning models. The companies optimized layers from the RHEL kernel to the vLLM engine. This work aims to help enterprises reduce costs per token on H200 and B200 GPUs.

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否