برېتانیایي حکومت ویلي چې برېتانیایي شرکتونه باید د نویو frontier artificial intelligence ماډلونو سره تړاوین خطرونو د پلان جوړونې او کمولو لپاره ګامونه پورته کړي.

دا مشوره یو coordinated effort دی ترڅو د خصوصي سکتور کې د AI پراختیا سرهګانې د سیسټمیکې ناثباتۍ مخه نیول شي. د frontier models — چې تر ټولو پرمختللې او وړ AI سیسټمونه دي — په هدف نیولو سره، تنظیم‌کوونکي غواړي د هغه ډول ناکامیو مخه ونیسي چې ممکن پراخې اقتصادي ګډاوې رامنځته کړي.

دا لارښوونه د برېتانیایي مالي وزارت، د انګلند بانک (Bank of England) او د مالي چلند authority (FCA) [1] په ګډ effort سره صادر شوې ده. دا ادارې شرکتونو ته غوښتنه کوي چې داسې چوکاټونه رامنځته کړي چې احتمالي کمزورۍ پیژني او محدودې کړي [1].

تنظیم‌کوونکو د اندیښنې درې اصلي برخې پیژندلې دي: خوندیتیا (safety)، امنیت (security) او مالي ثبات (financial stability) [1]. په مشوره کې ویل شوي چې پرته له فعال پلان جوړونې څخه، د دې ماډلونو ګړندی ځای پر ځای کول ممکن شرکتونه د غیر预期 عملیاتي خطرونو وړاندې کړي [2].

دا اقدام په داسې وخت کې行 کیږي چې برېتانیا هڅه کوي د AI پراختیا لپاره د نړیوال مرکز په توګه خپل موقف وساتي او په عین حال کې ډاډ ترلاسه کړي چې مالي سیسټم مقاوم پاتې شي [3]. حکومت ویلي چې شرکتونه باید په دې کې سختګریز وي چې څنګه دا وسیلې په خپلو اصلي سوداګریز عملیاتو کې ځای پر ځای کوي [1].

که څه هم دا لارښوونه نوې قوانین نه imposed کوي، مګر دا د نوې ټیکنالوژۍ په اړه د corporate governance لپاره یو واضح توقع ټاکلې ده [2]. د انګلند بانک او FCA به احتمالاً په راتلونکو auditونو او بیاکتنې کې څارنه وکړي چې شرکتونه څنګه د دې وړاندیزونو ځواب ورکوي [3].

برېتانیایي شرکتونه باید د نویو frontier artificial intelligence ماډلونو سره تړاوین خطرونو د پلان جوړونې او کمولو لپاره ګامونه پورته کړي

دا مشوره په برېتانیا کې د 'پرېوینټیو تنظیماتو' (preventative regulation) په لور یو بدلون ښيي. د دې پر ځای چې د سیسټمیکې ناکامۍ منتظر شي، د انګلند بانک او FCA د خطر مدیریت بار په خپله شرکتونو باندې اچوي. دا کړنلاره وړاندیز کوي چې برېتانیایي حکومت frontier AI نه یوازې د تولیدي وسیلې په توګه، بلکې د ملي مالي زیربنا لپاره د یو احتمالي سیسټمیک خطر په توګه ګڼي.