Halupedia په نوم یو نوی ویب پاڼه د Wikipedia په څېر د یو کلون په توګه پیل شوې چېArticles یې په بشپړه توګه د لویو ژبني ماډلونو د تخیلاتو (hallucinations) پر اساس جوړ شوي دي [1].
دا پروژه په ډیجیټل عصر کې د یو تحریکونکي تجربې په توګه کار کوي. د AI تېرویو په یو بشپړ ارجاعي سایټ کې د راټولولو په Procuration سره، جوړونکي غواړي د AI-generated غلط معلوماتو د خپاتیا او د اتوماتیک پوهې د باور په اړه kritike بحثونه پیل کړي [1], [4].
Halupedia د یوې دودیزې آنلاین انسایکلپीडیا جوړښت او ظاهري بڼه نقل کوي، مګر منځپانګه یې په قصدي ډول غلطه ده. دا سایټ د دې تخیلاتو پټولو هڅه نه کوي؛ بلکې هغه د حقیقت په توګه وړاندې کوي ترڅو دا ښکاره کړي چې څنګه لوی ژبني ماډلونه په اسانۍ سره قانع کوونکي مګر غلط معلومات تولیدولی شي [1].
دا تګلاره د AI عادي تېروتنه — یعنې hallucination — په یو منظم آرشیو بدلوي. پداسې حال کې چې معیاري AI وسیلې ډیری وخت د دې تېرویو د کمولو لپاره تنظیم شوې وي، Halupedia په قصدي ډول پرې تکیه کوي ترڅو د احتمالي غلط معلوماتو کچه وښيي [1], [2].
دا پروژه د ډیجیټل حقیقت د نازکۍ په اړه د یوې خبردارۍ په توګه وړاندې شوې ده. د داسې یو ځای رامنځته کولو سره چې چیرې دروغونه په منظم ډول او د wiki د واک په نوم وړاندې کیږي، Entwicklers ښيي چې AI څنګه کولی شي په پراخه کچه د معلوماتو اکوسیستم (information ecosystem) تروی کړي [3].
کارنانیګان کولی شي په دې سایټ کې وګوري چې څنګه AI تاریخي پیښې، ژوندینامې او علمي مفاهیم جوړوي. دا پروژه د generative AI د اوسنی حالت لپاره د یوې آینې په څېر عمل کوي او دې ته ټکی کوي چې د روانې متن تولیدولو وړتیا د حقیقت تولیدولو وړتیا سره برابر نه ده [1], [2].
“Halupedia د Wikipedia په سبک یوه انسایکلپीडیا وړاندې کوي چې مقالې یې په بشپړه توګه د AI تخیلاتو څخه جوړې شوې دي.”
Halupedia د generative AI په عصر کې د انسانانو د تشخیص وړتیا لپاره د یو stress test په توګه کار کوي. د تخیلاتو د یو باوري فارمټ — انسایکلپीडیا — په چوکاټ کې وړاندې کولو سره، دا ښيي چې د یو layout 'authority' کولی شي د کارونکي شک او بدبیني مات کړي. دا د 'model collapse' خطر او د انټرنیټ د синтеtic او غلط ډیټا څخه ډک کیدو احتمال ته اشاره کوي، چې راتلونکي AI ماډلونه ممکن پرې训练 شي او د غلط معلوماتو یو feedback loop رامنځته کړي.





