برېتانیایي حکومت ویلي چې برېتانیایي شرکتونه باید د نویو frontier artificial intelligence ماډلونو سره تړاوین خطرونو د پلان جوړونې او کمولو لپاره ګامونه پورته کړي.
دا مشوره یو coordinated effort دی ترڅو د خصوصي سکتور کې د AI پراختیا سرهګانې د سیسټمیکې ناثباتۍ مخه نیول شي. د frontier models — چې تر ټولو پرمختللې او وړ AI سیسټمونه دي — په هدف نیولو سره، تنظیمکوونکي غواړي د هغه ډول ناکامیو مخه ونیسي چې ممکن پراخې اقتصادي ګډاوې رامنځته کړي.
دا لارښوونه د برېتانیایي مالي وزارت، د انګلند بانک (Bank of England) او د مالي چلند authority (FCA) [1] په ګډ effort سره صادر شوې ده. دا ادارې شرکتونو ته غوښتنه کوي چې داسې چوکاټونه رامنځته کړي چې احتمالي کمزورۍ پیژني او محدودې کړي [1].
تنظیمکوونکو د اندیښنې درې اصلي برخې پیژندلې دي: خوندیتیا (safety)، امنیت (security) او مالي ثبات (financial stability) [1]. په مشوره کې ویل شوي چې پرته له فعال پلان جوړونې څخه، د دې ماډلونو ګړندی ځای پر ځای کول ممکن شرکتونه د غیر预期 عملیاتي خطرونو وړاندې کړي [2].
دا اقدام په داسې وخت کې行 کیږي چې برېتانیا هڅه کوي د AI پراختیا لپاره د نړیوال مرکز په توګه خپل موقف وساتي او په عین حال کې ډاډ ترلاسه کړي چې مالي سیسټم مقاوم پاتې شي [3]. حکومت ویلي چې شرکتونه باید په دې کې سختګریز وي چې څنګه دا وسیلې په خپلو اصلي سوداګریز عملیاتو کې ځای پر ځای کوي [1].
که څه هم دا لارښوونه نوې قوانین نه imposed کوي، مګر دا د نوې ټیکنالوژۍ په اړه د corporate governance لپاره یو واضح توقع ټاکلې ده [2]. د انګلند بانک او FCA به احتمالاً په راتلونکو auditونو او بیاکتنې کې څارنه وکړي چې شرکتونه څنګه د دې وړاندیزونو ځواب ورکوي [3].
“برېتانیایي شرکتونه باید د نویو frontier artificial intelligence ماډلونو سره تړاوین خطرونو د پلان جوړونې او کمولو لپاره ګامونه پورته کړي”
دا مشوره په برېتانیا کې د 'پرېوینټیو تنظیماتو' (preventative regulation) په لور یو بدلون ښيي. د دې پر ځای چې د سیسټمیکې ناکامۍ منتظر شي، د انګلند بانک او FCA د خطر مدیریت بار په خپله شرکتونو باندې اچوي. دا کړنلاره وړاندیز کوي چې برېتانیایي حکومت frontier AI نه یوازې د تولیدي وسیلې په توګه، بلکې د ملي مالي زیربنا لپاره د یو احتمالي سیسټمیک خطر په توګه ګڼي.





