Japanese government unveils rules requiring AI agents to consult humans

With the spread of AI products that handle tasks autonomously, the Japanese government plans to require AI operators to build systems involving human decision-making. This new requirement is included in a draft revision to guidelines for businesses, municipalities, and others involved in AI development, provision, or use, unveiled on Monday by the Internal Affairs and Communications Ministry and the Economy, Trade and Industry Ministry. The guidelines, introduced in 2024, are not legally binding and carry no penalties.

The Japanese government is revising its guidelines in response to the rapid development of AI. The draft requires AI operators to establish appropriate systems for managing 'physical AI,' used in robots and autonomous driving, and 'AI agents,' which handle tasks autonomously, to prevent malfunctions or misuse. For instance, operators must obtain customer consent when selling expensive items through AI-based systems.

Definitions for these AI types are provided for the first time in the guidelines. Physical AI is defined as systems that obtain external information via sensors or other means, which is then processed by AI for autonomous decisions and physical actions. AI agents are described as AI systems that understand their environment and autonomously execute operations.

A panel of experts under the Internal Affairs and Communications Ministry will discuss the revisions, aiming to finalize them by the end of March. The guidelines were introduced in 2024 and have been revised twice so far.

مقالات ذات صلة

Japan's economy ministry will provide financial support to domestic companies for processing vast amounts of data for machine learning. The focus is on manufacturing sector data to enhance the performance of domestically developed AI, strengthening product competitiveness and productivity. The ministry plans to invest ¥1 trillion over five years starting from fiscal 2026.

من إعداد الذكاء الاصطناعي

Japan exhibits strong public confidence in AI as a solution to labor shortages, yet workplace adoption remains shallow. While government and corporations push for integration, creators voice concerns over copyrights and income. Experts highlight skill gaps as key barriers.

ورقة بحثية جديدة تؤكد أن وكلاء الذكاء الاصطناعي محكوم لهم بالفشل رياضيًا، مما يتحدى الضجيج من الشركات التكنولوجية الكبرى. بينما يظل القطاع متفائلًا، تشير الدراسة إلى أن التلقيم الكامل بواسطة الذكاء الاصطناعي التوليدي قد لا يحدث أبدًا. نُشرت في أوائل 2026، مما يلقي الشك على وعود الذكاء الاصطناعي التحويلي في الحياة اليومية.

من إعداد الذكاء الاصطناعي

قامت إيباي بتحديث اتفاقية المستخدم لمنع وكلاء الذكاء الاصطناعي من جهات خارجية وروبوتات الدردشة من إجراء مشتريات على منصتها دون إذن. السياسة، التي تدخل حيز التنفيذ في 20 فبراير 2026، تعالج الاتجاه المتزايد لأدوات 'التجارة الوكيلية' التي تُحول عملية التسوق إلى أتمتة. يسمح هذا الإجراء لإيباي بملاحقة المتجاوزين قانونيًا مع الاحتفاظ بمساحة لتطويراتها الخاصة في مجال الذكاء الاصطناعي.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض