بنیاد نیر و انقلاب هوش مصنوعی: «دوقلوهای دیجیتال» برای حاکمیت DAO و مشارکت بیشتر
بنیاد نیر با «دوقلوهای دیجیتال» هوش مصنوعی، حاکمیت DAO را متحول میکند. این نوآوری برای افزایش مشارکت، رفع چالشهای تمرکز قدرت و بهبود فرآیند رأیگیری طراحی شده است. با خطرات امنیتی احتمالی نیز مقابله میشود.
همزاد دیجیتال؛ راهکار Near برای حاکمیت DAO
در دنیای پرشتاب بلاکچین و وب۳، سازمانهای خودگردان غیرمتمرکز (DAO) به عنوان نمادی از حاکمیت دموکراتیک و شفافیت شناخته میشوند. با این حال، یکی از چالشهای اساسی که بسیاری از پروتکلها با آن دست و پنجه نرم میکنند، نرخ پایین مشارکت رایدهندگان است. نرخ مشارکت متوسط در DAOها معمولاً بین ۱۵ تا ۲۵ درصد تخمین زده میشود. این عدم مشارکت، میتواند به پیامدهای ناخواسته و خطرناکی مانند تمرکز قدرت، تصمیمگیریهای ناکارآمد و حتی حملات حاکمیتی منجر شود؛ جایی که یک عامل مخرب با کسب تعداد کافی توکن، پیشنهاداتی زیانبار را بدون توجه سایر اعضا به تصویب میرساند. بنیاد نیر (Near Foundation) برای مقابله با این معضل، رویکردی نوآورانه را در پیش گرفته است: توسعه «نمایندگان» مجهز به هوش مصنوعی که در نهایت به نیابت از اعضای DAO رأی خواهند داد. این ایده، مسیر حاکمیت غیرمتمرکز را متحول کرده و به دنبال رفع این کاستی حیاتی در اکوسیستم کریپتو است.
چالش مشارکت پایین و ضرورت تحول در حاکمیت غیرمتمرکز
مدل حاکمیت DAO، با وجود مزایای ذاتی خود در غیرمتمرکزسازی و شفافیت، با مشکل دیرینهای دست و پنجه نرم میکند: بیتفاوتی و عدم مشارکت اعضا. ماهیت پیچیده و زمانبر فرآیندهای رأیگیری، به همراه حجم بالای پیشنهادات، اغلب باعث میشود که اعضا نتوانند یا تمایل نداشته باشند به طور فعال در تمام تصمیمگیریها شرکت کنند. این امر، همانطور که اشاره شد، راه را برای تمرکز قدرت در دست عدهای معدود هموار میکند و میتواند به تصمیمگیریهای ضعیف یا حتی حملات هدفمند حاکمیتی منجر شود. لِین رِتیگ (Lane Rettig)، پژوهشگر بنیاد نیر متخصص در حوزه هوش مصنوعی و حاکمیت، تاکید میکند که این مشکل، نیاز به بازنگری اساسی در ساختار حاکمیت پروتکلها را برجسته میسازد. در واقع، بقا و کارایی یک DAO به مشارکت فعال اعضای آن وابسته است و بدون راهکاری برای افزایش این مشارکت، هدف اصلی غیرمتمرکزسازی تحتالشعاع قرار خواهد گرفت. اینجاست که راهکار هوشمندانه و پیشرفته بنیاد Near وارد عمل میشود تا آیندهای جدید برای حاکمیت بلاکچین رقم بزند.
همزاد دیجیتال: رویکرد Near برای افزایش کارایی DAO
ایده محوری بنیاد نیر، توسعه «نماینده دیجیتال» یا «همزاد دیجیتال» است که در واقع یک عامل هوش مصنوعی (AI agent) محسوب میشود. این همزاد دیجیتال، با یادگیری اولویتها و ترجیحات هر کاربر، به نیابت از او در تصمیمگیریهای حاکمیتی DAO عمل خواهد کرد. رِتیگ توضیح میدهد که این فرآیند رأیگیری به یک "مسئله ریاضی" تبدیل میشود که "تقریباً آنی" اتفاق میافتد. نمایندگان هوش مصنوعی با تعامل با کاربران، از جمله فرآیندهای مصاحبه، تاریخچه رأیگیری و پیامها در پلتفرمهای اجتماعی مانند تلگرام و دیسکورد، آموزش میبینند. همانند مدلهای یادگیری چتباتهای هوش مصنوعی مولد مانند ChatGPT، این نمایندگان نیز به تدریج ترجیحات سیاسی، پروژههای مورد علاقه و نحوه تخصیص وجوه را از کاربر خود میآموزند. استقرار این سیستم در چندین مرحله انجام خواهد شد: در ابتدا، مدلهای اولیه شبیه به چتباتهایی خواهند بود که اطلاعات و مشاوره ارائه میدهند. سپس، این نمایندگان گروههای بزرگی با ترجیحات رأیگیری مشابه را نمایندگی میکنند و در نهایت، به سمت داشتن یک نماینده اختصاصی برای هر عضو DAO و حتی احتمالاً مدیران عامل AI-Delegate حرکت خواهند کرد. این رویکرد نه تنها مشارکت را افزایش میدهد، بلکه فرآیند تصمیمگیری را در اکوسیستم وب۳ به طرز چشمگیری کارآمدتر و سریعتر میسازد.
حفظ عنصر انسانی و ملاحظات امنیتی در کنار هوش مصنوعی
در حالی که عاملان هوش مصنوعی به طور فزایندهای در صنعت کریپتو برای ساخت برنامههای وب۳، راهاندازی توکن و تعامل خودکار با خدمات و پروتکلها استفاده میشوند (و پیشبینی میشود تعداد آنها تا سال ۲۰۲۵ به یک میلیون نفر برسد)، نگرانیهایی جدی در مورد خطرات امنیتی و پتانسیل تصمیمگیریهای اشتباه توسط آنها وجود دارد. رِتیگ قویاً معتقد است که "همیشه باید یک انسان در حلقه تصمیمگیری حضور داشته باشد". وی تاکید میکند که برخی دستهبندیهای پیشنهادات، مانند تخصیص بودجه یا تغییرات استراتژیک پروتکل، آنقدر حیاتی هستند که نمیتوان آنها را صرفاً به هوش مصنوعی واگذار کرد. بنابراین، عنصر انسانی نقش نهایی و تصمیمگیرنده را در این موارد ایفا خواهد کرد. بنیاد نیر برای تضمین همسویی نمایندگان دیجیتال با ارزشهای کاربران، از یک مدل آموزش قابل تأیید استفاده میکند که اثبات رمزنگاری شده چرخههای آموزش و ورودیهای خود را ارائه میدهد. این مکانیسم شفافیت و اعتماد را افزایش میدهد و ریسک تصمیمگیریهای خارج از چارچوب را کاهش میدهد. علاوه بر این، DAO اصلی Near، یعنی Near Digital Collective، قبلاً ابزاری مبتنی بر هوش مصنوعی به نام Pulse را پیادهسازی کرده است که احساسات جامعه را ردیابی، انجمنهای دیسکورد را خلاصه و محتوای مهم را برجسته میکند. این اقدامات نشاندهنده تعهد Near به توسعه مسئولانه و امن هوش مصنوعی در فضای حاکمیت بلاکچین و تقویت امنیت اکوسیستم است.
نحوه عملکرد نماینده هوش مصنوعی و نقش انسان
در دنیای رو به رشد و پیچیده بلاکچین و وب ۳، سازمانهای خودمختار غیرمتمرکز (DAO) نقش محوری در تصمیمگیریهای جمعی ایفا میکنند. با این حال، یکی از چالشهای اساسی که بسیاری از این پروتکلها با آن مواجه هستند، نرخ پایین مشارکت کاربران در فرآیندهای رایگیری است. این نرخ مشارکت که بهطور متوسط بین ۱۵ تا ۲۵ درصد تخمین زده میشود، میتواند به پیامدهای نامطلوبی همچون تمرکز قدرت، ناکارآمدی در تصمیمگیریها و حتی حملات حاکمیتی منجر شود؛ جایی که یک عامل مخرب با کسب توکنهای کافی، پیشنهادات مضر را بدون توجه سایر اعضا به تصویب میرساند. برای مقابله با این معضل، بنیاد نیر (Near Foundation)، که پروتکل لایه ۱ نیر را نظارت میکند، در حال توسعه راهکاری نوآورانه به نام «نماینده هوش مصنوعی» است تا انقلابی در نحوه عملکرد حاکمیت DAOها ایجاد کند.
نماینده هوش مصنوعی: دوقلوی دیجیتال شما در DAO
ایده اصلی پشت نمایندگان هوش مصنوعی، ایجاد یک «دوقلوی دیجیتال» برای هر کاربر است. این دوقلوی دیجیتال، که توسط هوش مصنوعی تقویت میشود، قرار است ترجیحات و الگوهای رفتاری کاربر خود را درک کند و سپس بر اساس آنها در تصمیمگیریهای حاکمیتی DAO عمل کند. لین رتیگ، محقق بنیاد نیر متخصص در حوزه هوش مصنوعی و حاکمیت، توضیح میدهد که هدف این سیستم، تبدیل فرآیند پیچیده رایگیری به یک «مسئله ریاضی» است که میتواند تقریباً فوراً انجام شود. به این ترتیب، کاربر دوقلوی دیجیتال خود را فعال میکند و این عامل هوشمند به نیابت از او عمل کرده و رای میدهد. علاوه بر این، این نماینده میتواند کاربران را نسبت به پیشنهاداتی که برایشان اهمیت دارد، آگاه کند و آنها را در جریان امور مربوط به حاکمیت قرار دهد.
فرایند پیادهسازی این نمایندگان هوش مصنوعی به صورت مرحلهای خواهد بود. در گامهای اولیه، مدلهای هوش مصنوعی مشابه چتباتها عمل میکنند و با «توانایی عمل پایین»، به کاربران در مورد پیشنهادات مشاوره میدهند، اطلاعات و زمینه مفید را فراهم میکنند و حتی میتوانند قالبهای اولیه را برای کاربران پر کنند تا آنها احساس آگاهی بیشتری داشته باشند. در مراحل بعدی، این نمایندگان ابتدا گروههای بزرگ با ترجیحات رایگیری مشابه را نمایندگی خواهند کرد و سپس به سمت داشتن یک نماینده فردی برای هر عضو DAO و حتی احتمالاً مدیران عامل (CEO) هوش مصنوعی حرکت خواهند کرد. این رویکرد تدریجی، امکان آزمون و خطا و تکامل سیستم را در اکوسیستم بلاکچین فراهم میآورد.
چگونه نمایندگان هوش مصنوعی آموزش میبینند و عمل میکنند؟
نمایندگان هوش مصنوعی برای درک دقیق ترجیحات کاربران، همانند چتباتهای هوش مصنوعی مولد مانند ChatGPT، از طریق تعاملات با کاربران آموزش میبینند. این آموزش شامل یک فرآیند مصاحبه، بررسی تاریخچه رایگیری کاربر و تحلیل پیامهای او در پلتفرمهای اجتماعی مانند تلگرام و دیسکورد است. رتیگ تاکید میکند که وقتی این عامل را فعال میکنید، شروع به شناختن شما میکند. نیاز دارد که ترجیحات سیاسی، انواع پروژههایی که به آنها اهمیت میدهید و نحوه تخصیص وجوه را بیاموزد. این فرآیند یادگیری جامع، به نماینده هوش مصنوعی کمک میکند تا تصمیماتی را اتخاذ کند که با ارزشها و اهداف کاربر در حوزه کریپتو و حاکمیت غیرمتمرکز هماهنگ باشد.
تعداد عوامل هوش مصنوعی در صنعت کریپتو به سرعت در حال افزایش است؛ شرکت مدیریت سرمایهگذاری VanEck تخمین میزند که این تعداد تا پایان سال ۲۰۲۴ از ۱۰,۰۰۰ فراتر رفته و تا سال ۲۰۲۵ به بیش از ۱ میلیون خواهد رسید. این عوامل هوش مصنوعی در حال حاضر بهطور گسترده در کریپتو برای ساخت برنامههای Web3، راهاندازی توکنها و تعامل خودکار با خدمات و پروتکلها استفاده میشوند. حتی برخی پلتفرمها در حال بررسی استفاده از عوامل هوش مصنوعی برای معاملات خودکار و تصمیمگیریهای بلادرنگ هستند. بنیاد نیر برای اطمینان از همسویی نمایندگان با ارزشهای کاربر، از یک مدل آموزشی قابل تأیید استفاده میکند که اثبات رمزنگاری از چرخههای آموزشی و ورودیهای آن را ارائه میدهد. این رویکرد به افزایش شفافیت و اعتماد در سیستم کمک میکند.
نقش حیاتی انسان و ملاحظات امنیتی
با وجود پتانسیل بالای نمایندگان هوش مصنوعی، نگرانیهایی در مورد خطرات امنیتی و احتمال اتخاذ تصمیمات نادرست در صورت اتکای بیش از حد به آنها وجود دارد. لین رتیگ به شدت معتقد است که «همیشه باید یک انسان در حلقه تصمیمگیری وجود داشته باشد.» او توضیح میدهد که دستهای از پیشنهادات وجود دارند که بسیار حیاتیتر از آن هستند که صرفاً به هوش مصنوعی واگذار شوند، مانند تخصیص وجوه یا تغییرات استراتژیک پروتکل. در این موارد، شما قطعاً میخواهید که انسان تصمیم نهایی را بگیرد و ماشه را بکشد. این رویکرد، اهمیت نظارت انسانی را در فرآیندهای حاکمیت بلاکچین و DAO به خوبی برجسته میکند، بهخصوص در مواقعی که سرمایههای کاربران یا مسیر توسعه یک پروژه در خطر است.
حفظ امنیت و اطمینان از اینکه عوامل هوش مصنوعی به درستی عمل میکنند و در معرض حملات سایبری نیستند، یک اولویت کلیدی است. همانطور که عوامل هوش مصنوعی میتوانند به بهبود کارایی و امنیت کمک کنند، میتوانند نقاط ضعف جدیدی نیز ایجاد کنند. به عنوان مثال، اگر یک عامل هوش مصنوعی به اطلاعات حساس دسترسی داشته باشد یا در آموزش آن نقص امنیتی وجود داشته باشد، میتواند به یک خطر جدی تبدیل شود. بنیاد نیر با پیادهسازی ابزاری مانند Pulse در DAO اصلی خود، یعنی Near Digital Collective، که احساسات جامعه را ردیابی، انجمنهای دیسکورد را خلاصه و محتوای مهم را برجسته میکند، قدمهایی در جهت بهبود حاکمیت و نظارت بر آن برداشته است. این ابزارها میتوانند به تشخیص زودهنگام ناهنجاریها و حفظ شفافیت در اکوسیستم بلاکچین کمک کنند و مکمل مهمی برای نمایندگان هوش مصنوعی باشند تا اطمینان حاصل شود که اهداف دیسنترالیزه (غیرمتمرکز) محقق میشوند و ریسکهای امنیتی از جمله فیشینگ و سایر حملات به حداقل میرسند.
چگونگی آموزش همزادهای دیجیتال با دادههای کاربر
در دنیای پویای کریپتو و بلاکچین، سازمانهای خودگردان غیرمتمرکز (DAO) نقشی محوری در حاکمیت پروتکلها و پروژههای وب۳ ایفا میکنند. با این حال، یکی از چالشهای همیشگی که بسیاری از این سازمانها با آن دست و پنجه نرم میکنند، نرخ پایین مشارکت رأیدهندگان است که اغلب بین ۱۵ تا ۲۵ درصد متغیر است. این عدم مشارکت میتواند منجر به تمرکز قدرت، تصمیمگیریهای غیرمؤثر و حتی حملات حاکمیتی شود، جایی که عاملان مخرب با کسب توکنهای کافی، پیشنهادهای آسیبزا را بدون اطلاع دیگر اعضا به تصویب میرسانند. در پاسخ به این چالش، بنیاد نیر (Near Foundation) در حال توسعه یک رویکرد نوآورانه است: «نمایندگان» یا «همزادهای دیجیتال» مبتنی بر هوش مصنوعی که در نهایت به نمایندگی از اعضای DAO رأی خواهند داد. این همزادهای دیجیتال قرار است ترجیحات کاربران را بیاموزند و بر اساس آن در تصمیمگیریهای حاکمیتی عمل کنند و فرآیند رأیگیری را به یک «مسئله ریاضی» تبدیل کنند که میتواند «تقریباً فوراً» اتفاق بیفتد.
همزاد دیجیتال: پلی میان کاربر و حاکمیت غیرمتمرکز
ایده اصلی پشت همزادهای دیجیتال این است که هر کاربر یک نماینده مبتنی بر هوش مصنوعی خواهد داشت که به مرور زمان اولویتها و دیدگاههای او را در مورد مسائل مختلف حاکمیتی در اکوسیستم بلاکچین درک میکند. این سیستم نه تنها به افزایش مشارکت کمک میکند، بلکه فرآیند پیچیده رأیگیری را سادهتر و کارآمدتر میسازد. به گفته لین رتیگ، پژوهشگر بنیاد نیر که در زمینه هوش مصنوعی و حاکمیت تخصص دارد، این همزادها میتوانند در زمان مناسب، پیشنهادهای مرتبط با کاربر را به او اطلاع دهند و در صورت لزوم، به نمایندگی از او رأی دهند. این رویکرد به معنای تفویض اختیار هوشمندانه است که میتواند ضعفهای فعلی DAOها را پوشش دهد و از بروز مسائلی نظیر تمرکز قدرت که از خطرات اصلی در دنیای کریپتو محسوب میشود، جلوگیری کند. با این حال، بنیاد نیر تأکید دارد که همیشه یک «عنصر انسانی» در این فرآیند دخیل خواهد بود، بهویژه برای تصمیمگیریهای حیاتی مانند تخصیص وجوه یا تغییرات استراتژیک پروتکل.
روشهای آموزش و کسب هویت دیجیتال توسط همزادها
فرآیند آموزش همزادهای دیجیتال بسیار شبیه به آموزش چتباتهای هوش مصنوعی مولد مانند ChatGPT است. این نمایندگان هوش مصنوعی از طریق تعاملات گسترده با کاربران، دادهها را جمعآوری کرده و ترجیحات آنها را میآموزند. این تعاملات شامل موارد متعددی میشود که به همزاد کمک میکند تا یک «هویت دیجیتال» منطبق با کاربر خود شکل دهد:
- **فرآیند مصاحبه:** در ابتدا، ممکن است یک فرآیند مصاحبه اولیه برای شناخت بهتر کاربر انجام شود.
- **تاریخچه رأیگیری:** تحلیل سوابق رأیگیری کاربر در DAOها، بینشهای ارزشمندی در مورد اولویتهای او ارائه میدهد.
- **پیامها در پلتفرمهای اجتماعی:** پیامها و تعاملات کاربر در پلتفرمهایی مانند تلگرام و دیسکورد، اطلاعاتی در مورد نظرات، نگرانیها و علایق او در حوزه کریپتو و پروژههای بلاکچینی فراهم میکند.
رتیگ توضیح میدهد که همزاد دیجیتال نیاز دارد تا «ترجیحات سیاسی، نوع پروژههایی که به آنها اهمیت میدهید و اینکه فکر میکنید وجوه چگونه باید تخصیص یابد» را بیاموزد. این یادگیری مستمر به همزاد اجازه میدهد تا نه تنها به نمایندگی از کاربر رأی دهد، بلکه او را در مورد پیشنهادهای مرتبط آگاه کرده و حتی قالبهای اولیه را برای پاسخگویی به پیشنهادات پر کند تا کاربران احساس آگاهتر بودن داشته باشند. مدلهای اولیه این همزادها بسیار شبیه به چتباتها خواهند بود که با «توانایی عمل پایین» صرفاً مشاوره میدهند و اطلاعات مفیدی ارائه میکنند.
تضمین همسویی و چالشهای امنیتی در فرآیند آموزش
با گسترش استفاده از عاملهای هوش مصنوعی در صنعت کریپتو – که تخمین زده میشود تعداد آنها تا پایان ۲۰۲۴ از ۱۰ هزار و تا پایان ۲۰۲۵ به یک میلیون برسد – نگرانیهایی در مورد خطرات امنیتی و پتانسیل تصمیمگیریهای نادرست در صورت اتکای بیش از حد به آنها وجود دارد. برای اطمینان از اینکه همزادهای دیجیتال با ارزشهای کاربر همسو باقی میمانند، بنیاد نیر در حال کار بر روی یک «مدل آموزشی قابل تأیید» است. این مدل شواهد رمزنگاری شدهای از چرخههای آموزشی و ورودیهای خود را نشان میدهد که به شفافیت و اعتماد کمک میکند. این امر برای جلوگیری از حملات احتمالی یا دستکاریهای فیشینگ که میتوانند امنیت وب۳ را به خطر اندازند، حیاتی است.
همچنین، همانطور که اشاره شد، بنیاد نیر قویاً معتقد است که «همیشه باید یک انسان در حلقه تصمیمگیری حضور داشته باشد.» این امر برای دستهبندیهایی از پیشنهادات که بیش از حد حیاتی هستند تا صرفاً به هوش مصنوعی واگذار شوند، از جمله موارد مربوط به تخصیص وجوه یا تغییرات استراتژیک، اهمیت بالایی دارد. برای مثال، DAO اصلی نیر، Near Digital Collective، قبلاً ابزار هوش مصنوعی Pulse را پیادهسازی کرده است که احساسات جامعه را ردیابی، انجمنهای دیسکورد را خلاصه و محتوای مهم را برجسته میکند. این گامهای اولیه نشاندهنده رویکرد مرحلهای و محتاطانه بنیاد نیر در جهت توسعه و استقرار همزادهای دیجیتال است که ابتدا با نمایندگی از گروههای بزرگ با ترجیحات رأیگیری مشابه آغاز شده و سپس به سمت داشتن یک نماینده فردی برای هر شخص پیش خواهد رفت.
نگرانیهای امنیتی و راهکارهای پیشنهادی Near
پروتکلهای بلاکچین و سازمانهای خودگردان غیرمتمرکز (DAOs) با وجود پتانسیل بالای خود برای تمرکززدایی و دموکراتیزاسیون حاکمیت، اغلب با چالش جدی مشارکت پایین اعضا در فرآیندهای رأیگیری مواجه هستند. این موضوع، طبق برآوردهای مختلف، میانگین نرخ مشارکت در DAOها را به ۱۵ تا ۲۵ درصد کاهش میدهد. چنین سطحی از عدم مشارکت، زمینهساز بروز مسائل متعددی از جمله تمرکز قدرت در دست عدهای معدود، تصمیمگیریهای غیرموثر و در بدترین سناریوها، حملات حاکمیتی (governance attacks) میشود. در این حملات، یک عامل مخرب با کسب تعداد کافی توکن، میتواند پیشنهاداتی آسیبزننده را بدون اطلاع یا مخالفت سایر اعضا به تصویب برساند و امنیت کلی پروتکل را به خطر اندازد. در این راستا، بنیاد Near گامهای بلندی برای رفع این کاستیها و افزایش امنیت برداشته است.
چالشهای حاکمیت DAO و ضرورت هوش مصنوعی
همانطور که اشاره شد، مشارکت پایین کاربران در فرآیندهای حاکمیت غیرمتمرکز یکی از موانع اصلی تحقق کامل وعده تمرکززدایی در فضای وب۳ است. این عدم مشارکت نه تنها منجر به ضعف در تصمیمگیریها میشود، بلکه بستر را برای آسیبپذیریهای امنیتی نیز فراهم میکند. بنیاد Near با درک این چالش، به دنبال توسعه «نمایندگان» مبتنی بر هوش مصنوعی است تا بتواند از طرف اعضای سازمان خودگردان غیرمتمرکز خود رأی دهند. هدف اصلی این پروژه، نه تنها افزایش چشمگیر نرخ مشارکت در اکوسیستم Near Protocol است، بلکه محافظت از ساختار حاکمیتی در برابر حملات احتمالی و تضمین پویایی و کارایی آن را نیز در بر میگیرد.
لین رتیگ، محقق بنیاد Near که در زمینه هوش مصنوعی و حاکمیت فعالیت میکند، توضیح میدهد که ایده اصلی این است که نماینده هر کاربر، یا «همزاد دیجیتال» او، ترجیحات و علایق وی را میآموزد و سپس بر اساس آنها در تصمیمگیریهای حاکمیتی عمل میکند. این فرآیند رأیگیری را به یک «مسئله ریاضی» تبدیل میکند که «تقریباً بلافاصله» میتواند انجام شود. این رویکرد جدید، به کاربران این امکان را میدهد که حتی بدون صرف زمان زیاد برای بررسی تکتک پیشنهادات، همچنان در حاکمیت پروتکل سهم داشته باشند و امنیت تصمیمگیریها را بهبود بخشند. این نمایندگان همچنین میتوانند کاربران را در مورد پیشنهاداتی که برایشان مرتبط است، آگاه کرده و راهنمایی کنند.
ریسکهای بالقوه نمایندگان هوش مصنوعی و اهمیت نظارت انسانی
با وجود مزایای فراوان اتوماسیون از طریق هوش مصنوعی در حوزه کریپتو و وب۳، نگرانیهای جدی نیز در مورد خطرات امنیتی و تصمیمگیریهای نادرست در صورت اتکای بیش از حد به این عاملان وجود دارد. عاملان هوش مصنوعی میتوانند تهدیدات امنیتی ایجاد کنند یا در تصمیمات مهم اشتباه کنند، به خصوص اگر سیستمهای کنترلی کافی وجود نداشته باشد. لین رتیگ تأکید میکند که حتی با پیشرفت هوش مصنوعی، «همیشه باید یک انسان در حلقه تصمیمگیری وجود داشته باشد.» او معتقد است که دستهای از پیشنهادات وجود دارند که آنقدر حیاتی و حساس هستند که نمیتوان آنها را صرفاً به هوش مصنوعی سپرد. این موارد شامل تصمیمات مربوط به تخصیص وجوه یا تغییرات استراتژیک در پروتکل میشود.
تصمیمگیریهای کلیدی مالی و استراتژیک در یک DAO، تأثیرات گستردهای بر کل اکوسیستم و کاربران آن دارند. واگذاری کامل این مسئولیتها به یک عامل هوش مصنوعی، میتواند منجر به نتایجی غیرقابل پیشبینی یا حتی فاجعهبار شود. بنابراین، مدل حاکمیتی پیشنهادی Near، با وجود بهرهگیری از هوش مصنوعی برای افزایش کارایی و مشارکت، بر حفظ عنصر انسانی به عنوان نقطه پایانی تأکید میکند. این رویکرد ترکیبی، به دنبال به حداکثر رساندن مزایای هوش مصنوعی در تسریع و تسهیل رأیگیریها، در عین حال به حداقل رساندن ریسکهای امنیتی ناشی از اتکای مطلق به آن است. به گفته رتیگ: «قطعاً دستهای از کارها وجود دارد که میخواهید انسان تصمیم نهایی را بگیرد و ماشه را بکشد.»
راهکارهای بنیاد Near برای افزایش امنیت و شفافیت
بنیاد Near برای مقابله با نگرانیهای امنیتی و تضمین اینکه نمایندگان هوش مصنوعی با ارزشهای کاربران همسو باقی میمانند، چندین راهکار کلیدی را در نظر گرفته است. یکی از مهمترین این راهکارها، استفاده از یک «مدل آموزشی قابل تأیید» است. این مدل، اثبات رمزنگارانه (cryptographic proof) از چرخههای آموزشی و ورودیهای خود را ارائه میدهد که این امکان را فراهم میسازد تا شفافیت در نحوه آموزش و عملکرد نماینده هوش مصنوعی برقرار شود و کاربران بتوانند به درستی آن اعتماد کنند.
علاوه بر این، Near Foundation رویکردی تدریجی را برای پیادهسازی این نمایندگان هوش مصنوعی در نظر گرفته است. این فرآیند شامل مراحل زیر است:
- **مدلهای اولیه و مشاورهای:** در ابتدا، مدلهای هوش مصنوعی بسیار شبیه به چتباتها عمل میکنند و «عاملیت کمی» دارند. وظیفه آنها مشاوره دادن در مورد پیشنهادات، ارائه اطلاعات مفید، زمینه و پر کردن الگوهای اساسی برای کاربران است تا آنها احساس آگاهی بیشتری داشته باشند. این مرحله اولیه، ریسکهای امنیتی را به حداقل میرساند و امکان آزمایش و بهبود سیستم را فراهم میکند.
- **نمایندگی گروههای بزرگ:** در مرحله بعدی، نمایندگان هوش مصنوعی شروع به نمایندگی گروههای بزرگتری با ترجیحات رأیگیری مشابه خواهند کرد. این رویکرد، امکان مقیاسپذیری را فراهم کرده و به تدریج اعتماد به سیستم را افزایش میدهد.
- **نمایندگی فردی:** در نهایت، هدف بلندمدت این است که هر عضو DAO یک نماینده هوش مصنوعی اختصاصی داشته باشد که به طور کامل با ترجیحات فردی او همسو باشد.
همچنین، Near Digital Collective، DAO اصلی Near، ابزاری مبتنی بر هوش مصنوعی به نام Pulse را از قبل پیادهسازی کرده است. Pulse وظیفه ردیابی احساسات جامعه، خلاصهسازی انجمنهای دیسکورد و برجسته کردن محتوای مهم را بر عهده دارد. این ابزار به عنوان یک لایه اضافی برای درک پویایی جامعه و تقویت شفافیت در حاکمیت عمل میکند و به طور غیرمستقیم به امنیت و سلامت تصمیمگیریهای DAO کمک شایانی میکند. نمایندگان هوش مصنوعی ترجیحات کاربر را از طریق تعاملاتی شامل مصاحبه، سابقه رأیگیری و پیامها در پلتفرمهای اجتماعی مانند تلگرام و دیسکورد میآموزند. این یادگیری عمیق تضمین میکند که «همزاد دیجیتال» به درستی علایق سیاسی و پروژههای مورد نظر کاربر را درک کند و در تخصیص وجوه مطابق با آن عمل نماید.
مراحل پیادهسازی و آینده نمایندگان هوشمند
چالش مشارکت پایین در سازمانهای خودگردان غیرمتمرکز (DAO)
سازمانهای خودگردان غیرمتمرکز یا DAOها (Decentralized Autonomous Organizations)، به عنوان ستون فقرات حاکمیت در بسیاری از پروتکلهای بلاکچینی و وب۳ عمل میکنند. این ساختارها امکان تصمیمگیری جمعی را برای اعضا فراهم میآورند، اما همواره با یک چالش اساسی دست و پنجه نرم کردهاند: نرخ پایین مشارکت رأیدهندگان. طبق برآوردها، میانگین نرخ مشارکت در DAOها بین ۱۵% تا ۲۵% است. این رقم ناچیز، میتواند به پیامدهای جدی از جمله تمرکز قدرت در دست عدهای معدود، تصمیمگیریهای غیرموثر و حتی حملات حاکمیتی منجر شود. در چنین حملاتی، یک بازیگر مخرب با خرید توکنهای کافی میتواند بدون توجه سایر اعضا، پیشنهادات آسیبزا را به تصویب برساند. بنیاد نیر (Near Foundation)، که ناظر پروتکل لایه یک نیر است، در حال توسعه راهحلی نوآورانه برای مقابله با این معضل و افزایش پویایی حاکمیت غیرمتمرکز است.
«دوقلوهای دیجیتال» هوش مصنوعی: راهحلی برای حاکمیت هوشمند
پروژه بنیاد نیر شامل توسعه «نمایندگان» مبتنی بر هوش مصنوعی است که در نهایت به نمایندگی از اعضای DAO رأی خواهند داد. این نمایندگان، که از آنها به عنوان «دوقلوهای دیجیتال» نیز یاد میشود، با هدف یادگیری ترجیحات هر کاربر و عمل بر اساس آنها در زمان تصمیمگیریهای حاکمتی طراحی شدهاند. لین رتیگ، محقق بنیاد نیر در زمینه هوش مصنوعی و حاکمیت، توضیح میدهد که این سیستم فرآیند رأیگیری را به یک «مسئله ریاضی» تبدیل میکند که «تقریباً بلافاصله» قابل انجام است. این دوقلوی دیجیتال پس از فعالسازی، با کاربر تعامل کرده و اطلاعاتی مانند سوابق رأیگیری، مکالمات در پلتفرمهای اجتماعی نظیر تلگرام و دیسکورد، و حتی یک فرآیند مصاحبه را برای شناخت ترجیحات سیاسی، علایق پروژهای و دیدگاههای کاربر در مورد تخصیص وجوه، جمعآوری میکند. هدف نهایی این است که این عامل هوش مصنوعی به نمایندگی از کاربر عمل کرده، رأی دهد و پیشنهادات مرتبط را به او یادآوری کند تا تصمیمگیری آگاهانهتر صورت گیرد.
رویکرد مرحلهای و نقش انسان در حلقه تصمیمگیری
پیادهسازی نمایندگان هوش مصنوعی در بنیاد نیر به صورت مرحلهای خواهد بود. مدلهای اولیه، مشابه رباتهای چت ساده (chatbots)، وظیفه مشاوره در مورد پیشنهادات، ارائه اطلاعات و پر کردن قالبهای اولیه را برای کاربران بر عهده خواهند داشت تا آنها بهتر بتوانند تصمیمگیری کنند. در مراحل بعدی، این نمایندگان ابتدا گروههای بزرگ با ترجیحات رأیگیری مشابه را نمایندگی خواهند کرد و در نهایت به سمت داشتن یک نماینده هوش مصنوعی فردی برای هر عضو DAO پیش خواهند رفت. حتی احتمال وجود مدیران عامل هوش مصنوعی (AI delegate CEOs) نیز مطرح شده است. با این حال، لین رتیگ تاکید میکند که همواره یک عنصر انسانی در این فرآیند دخیل خواهد بود. او معتقد است که برخی از پیشنهادات، مانند تخصیص بودجه یا تغییرات استراتژیک کلان، به قدری حیاتی هستند که نمیتوان تصمیمگیری نهایی را به طور کامل به هوش مصنوعی واگذار کرد. در چنین موارد حساسی، نیاز به مداخله و تصمیم نهایی انسان ضروری خواهد بود.
کاربردهای گسترده و رشد نمایندگان هوش مصنوعی در کریپتو
عوامل هوش مصنوعی (AI agents) در حال حاضر کاربرد گستردهای در فضای کریپتو پیدا کردهاند. این عوامل برای ساخت برنامههای کاربردی وب۳، راهاندازی توکنها، و تعامل خودمختار با سرویسها و پروتکلها استفاده میشوند. برخی پلتفرمها حتی در حال بررسی استفاده از عوامل هوش مصنوعی برای معاملات خودکار و تصمیمگیریهای آنی هستند. پیشبینیها حاکی از رشد چشمگیر این فناوری است؛ موسسه مدیریت سرمایهگذاری VanEck تخمین میزند که تعداد عوامل هوش مصنوعی در صنعت کریپتو تا پایان سال ۲۰۲۴ از ۱۰,۰۰۰ فراتر رفته و تا سال ۲۰۲۵ به بیش از یک میلیون عامل خواهد رسید. این آمار نشاندهنده اهمیت روزافزون هوش مصنوعی در تحول اکوسیستم بلاکچین است. اما با گسترش این فناوری، توجه به جنبههای امنیتی و چالشهای جدید نیز اهمیت پیدا میکند که نیازمند راهکارهای نوآورانه است.
چالشها و تضمین امنیت نمایندگان هوش مصنوعی
با وجود پتانسیل بالای نمایندگان هوش مصنوعی، نگرانیهایی در مورد خطرات امنیتی و احتمال اتخاذ تصمیمات نادرست در صورت اتکای بیش از حد به آنها وجود دارد. برای مثال، اگر یک عامل هوش مصنوعی بدون نظارت کافی بر اساس دادههای ناقص یا مغرضانه آموزش ببیند، میتواند منجر به تصمیماتی شود که به جای منفعت، به پروتکل آسیب برساند. بنیاد نیر برای تضمین همسویی نمایندگان با ارزشهای کاربران، از یک مدل آموزشی قابل تأیید (verifiable model training) استفاده میکند. این مدل شواهد رمزنگاری شدهای از چرخههای آموزشی و ورودیهای خود را ارائه میدهد که شفافیت و اعتمادپذیری فرآیند یادگیری هوش مصنوعی را تضمین میکند. علاوه بر این، DAO اصلی نیر، یعنی Near Digital Collective، قبلاً ابزار هوش مصنوعی Pulse را پیادهسازی کرده است که احساسات جامعه را ردیابی، انجمنهای دیسکورد را خلاصه و محتوای مهم را برجسته میکند. این اقدامات نشاندهنده تعهد بنیاد نیر به توسعه مسئولانه و امن هوش مصنوعی در حاکمیت است.
جمعبندی و توصیه نهایی: آینده حاکمیت غیرمتمرکز
پروژه «دوقلوهای دیجیتال» هوش مصنوعی بنیاد نیر گامی مهم در جهت حل چالش مشارکت پایین در DAOها و بهبود کارایی حاکمیت غیرمتمرکز است. این فناوری پتانسیل آن را دارد که فرآیند تصمیمگیری را دموکراتیکتر، سریعتر و موثرتر کند، در عین حال که قدرت را از دست عدهای محدود خارج میسازد. با این حال، همانطور که لین رتیگ نیز تاکید کرد، حفظ «انسان در حلقه» (human in the loop) برای تصمیمات حیاتی و نظارت مستمر بر عملکرد عوامل هوش مصنوعی ضروری است. کاربران باید همیشه از ماهیت این تکنولوژیها آگاه باشند و همواره هوشیاری لازم را در برابر ریسکهای احتمالی حفظ کنند. توصیه میشود همواره قبل از واگذاری کامل قدرت تصمیمگیری به سیستمهای خودکار، از شفافیت و امنیت مکانیزمهای آموزشی و عملیاتی آنها اطمینان حاصل شود. این رویکرد ترکیبی از قدرت هوش مصنوعی و بینش انسانی، مسیر را برای آیندهای پایدارتر و کارآمدتر در حاکمیت غیرمتمرکز هموار خواهد ساخت.
نظرات خود را با ما به اشتراک بگذارید
آدرس ای میل شما نمایش داده نمیشود.
ما را دنبال کنید