__temp__ __location__
`
بنیاد نیر و انقلاب هوش مصنوعی: «دوقلوهای دیجیتال» برای حاکمیت DAO و مشارکت بیشتر

بنیاد نیر و انقلاب هوش مصنوعی: «دوقلوهای دیجیتال» برای حاکمیت DAO و مشارکت بیشتر

بنیاد نیر با «دوقلوهای دیجیتال» هوش مصنوعی، حاکمیت DAO را متحول می‌کند. این نوآوری برای افزایش مشارکت، رفع چالش‌های تمرکز قدرت و بهبود فرآیند رأی‌گیری طراحی شده است. با خطرات امنیتی احتمالی نیز مقابله می‌شود.

همزاد دیجیتال؛ راهکار Near برای حاکمیت DAO

در دنیای پرشتاب بلاکچین و وب۳، سازمان‌های خودگردان غیرمتمرکز (DAO) به عنوان نمادی از حاکمیت دموکراتیک و شفافیت شناخته می‌شوند. با این حال، یکی از چالش‌های اساسی که بسیاری از پروتکل‌ها با آن دست و پنجه نرم می‌کنند، نرخ پایین مشارکت رای‌دهندگان است. نرخ مشارکت متوسط در DAOها معمولاً بین ۱۵ تا ۲۵ درصد تخمین زده می‌شود. این عدم مشارکت، می‌تواند به پیامدهای ناخواسته و خطرناکی مانند تمرکز قدرت، تصمیم‌گیری‌های ناکارآمد و حتی حملات حاکمیتی منجر شود؛ جایی که یک عامل مخرب با کسب تعداد کافی توکن، پیشنهاداتی زیان‌بار را بدون توجه سایر اعضا به تصویب می‌رساند. بنیاد نیر (Near Foundation) برای مقابله با این معضل، رویکردی نوآورانه را در پیش گرفته است: توسعه «نمایندگان» مجهز به هوش مصنوعی که در نهایت به نیابت از اعضای DAO رأی خواهند داد. این ایده، مسیر حاکمیت غیرمتمرکز را متحول کرده و به دنبال رفع این کاستی حیاتی در اکوسیستم کریپتو است.

چالش مشارکت پایین و ضرورت تحول در حاکمیت غیرمتمرکز

مدل حاکمیت DAO، با وجود مزایای ذاتی خود در غیرمتمرکزسازی و شفافیت، با مشکل دیرینه‌ای دست و پنجه نرم می‌کند: بی‌تفاوتی و عدم مشارکت اعضا. ماهیت پیچیده و زمان‌بر فرآیندهای رأی‌گیری، به همراه حجم بالای پیشنهادات، اغلب باعث می‌شود که اعضا نتوانند یا تمایل نداشته باشند به طور فعال در تمام تصمیم‌گیری‌ها شرکت کنند. این امر، همانطور که اشاره شد، راه را برای تمرکز قدرت در دست عده‌ای معدود هموار می‌کند و می‌تواند به تصمیم‌گیری‌های ضعیف یا حتی حملات هدفمند حاکمیتی منجر شود. لِین رِتیگ (Lane Rettig)، پژوهشگر بنیاد نیر متخصص در حوزه هوش مصنوعی و حاکمیت، تاکید می‌کند که این مشکل، نیاز به بازنگری اساسی در ساختار حاکمیت پروتکل‌ها را برجسته می‌سازد. در واقع، بقا و کارایی یک DAO به مشارکت فعال اعضای آن وابسته است و بدون راهکاری برای افزایش این مشارکت، هدف اصلی غیرمتمرکزسازی تحت‌الشعاع قرار خواهد گرفت. اینجاست که راهکار هوشمندانه و پیشرفته بنیاد Near وارد عمل می‌شود تا آینده‌ای جدید برای حاکمیت بلاکچین رقم بزند.

همزاد دیجیتال: رویکرد Near برای افزایش کارایی DAO

ایده محوری بنیاد نیر، توسعه «نماینده دیجیتال» یا «همزاد دیجیتال» است که در واقع یک عامل هوش مصنوعی (AI agent) محسوب می‌شود. این همزاد دیجیتال، با یادگیری اولویت‌ها و ترجیحات هر کاربر، به نیابت از او در تصمیم‌گیری‌های حاکمیتی DAO عمل خواهد کرد. رِتیگ توضیح می‌دهد که این فرآیند رأی‌گیری به یک "مسئله ریاضی" تبدیل می‌شود که "تقریباً آنی" اتفاق می‌افتد. نمایندگان هوش مصنوعی با تعامل با کاربران، از جمله فرآیندهای مصاحبه، تاریخچه رأی‌گیری و پیام‌ها در پلتفرم‌های اجتماعی مانند تلگرام و دیسکورد، آموزش می‌بینند. همانند مدل‌های یادگیری چت‌بات‌های هوش مصنوعی مولد مانند ChatGPT، این نمایندگان نیز به تدریج ترجیحات سیاسی، پروژه‌های مورد علاقه و نحوه تخصیص وجوه را از کاربر خود می‌آموزند. استقرار این سیستم در چندین مرحله انجام خواهد شد: در ابتدا، مدل‌های اولیه شبیه به چت‌بات‌هایی خواهند بود که اطلاعات و مشاوره ارائه می‌دهند. سپس، این نمایندگان گروه‌های بزرگی با ترجیحات رأی‌گیری مشابه را نمایندگی می‌کنند و در نهایت، به سمت داشتن یک نماینده اختصاصی برای هر عضو DAO و حتی احتمالاً مدیران عامل AI-Delegate حرکت خواهند کرد. این رویکرد نه تنها مشارکت را افزایش می‌دهد، بلکه فرآیند تصمیم‌گیری را در اکوسیستم وب۳ به طرز چشمگیری کارآمدتر و سریع‌تر می‌سازد.

حفظ عنصر انسانی و ملاحظات امنیتی در کنار هوش مصنوعی

در حالی که عاملان هوش مصنوعی به طور فزاینده‌ای در صنعت کریپتو برای ساخت برنامه‌های وب۳، راه‌اندازی توکن و تعامل خودکار با خدمات و پروتکل‌ها استفاده می‌شوند (و پیش‌بینی می‌شود تعداد آن‌ها تا سال ۲۰۲۵ به یک میلیون نفر برسد)، نگرانی‌هایی جدی در مورد خطرات امنیتی و پتانسیل تصمیم‌گیری‌های اشتباه توسط آن‌ها وجود دارد. رِتیگ قویاً معتقد است که "همیشه باید یک انسان در حلقه تصمیم‌گیری حضور داشته باشد". وی تاکید می‌کند که برخی دسته‌بندی‌های پیشنهادات، مانند تخصیص بودجه یا تغییرات استراتژیک پروتکل، آنقدر حیاتی هستند که نمی‌توان آن‌ها را صرفاً به هوش مصنوعی واگذار کرد. بنابراین، عنصر انسانی نقش نهایی و تصمیم‌گیرنده را در این موارد ایفا خواهد کرد. بنیاد نیر برای تضمین همسویی نمایندگان دیجیتال با ارزش‌های کاربران، از یک مدل آموزش قابل تأیید استفاده می‌کند که اثبات رمزنگاری شده چرخه‌های آموزش و ورودی‌های خود را ارائه می‌دهد. این مکانیسم شفافیت و اعتماد را افزایش می‌دهد و ریسک تصمیم‌گیری‌های خارج از چارچوب را کاهش می‌دهد. علاوه بر این، DAO اصلی Near، یعنی Near Digital Collective، قبلاً ابزاری مبتنی بر هوش مصنوعی به نام Pulse را پیاده‌سازی کرده است که احساسات جامعه را ردیابی، انجمن‌های دیسکورد را خلاصه و محتوای مهم را برجسته می‌کند. این اقدامات نشان‌دهنده تعهد Near به توسعه مسئولانه و امن هوش مصنوعی در فضای حاکمیت بلاکچین و تقویت امنیت اکوسیستم است.

نحوه عملکرد نماینده هوش مصنوعی و نقش انسان

در دنیای رو به رشد و پیچیده بلاکچین و وب ۳، سازمان‌های خودمختار غیرمتمرکز (DAO) نقش محوری در تصمیم‌گیری‌های جمعی ایفا می‌کنند. با این حال، یکی از چالش‌های اساسی که بسیاری از این پروتکل‌ها با آن مواجه هستند، نرخ پایین مشارکت کاربران در فرآیندهای رای‌گیری است. این نرخ مشارکت که به‌طور متوسط بین ۱۵ تا ۲۵ درصد تخمین زده می‌شود، می‌تواند به پیامدهای نامطلوبی همچون تمرکز قدرت، ناکارآمدی در تصمیم‌گیری‌ها و حتی حملات حاکمیتی منجر شود؛ جایی که یک عامل مخرب با کسب توکن‌های کافی، پیشنهادات مضر را بدون توجه سایر اعضا به تصویب می‌رساند. برای مقابله با این معضل، بنیاد نیر (Near Foundation)، که پروتکل لایه ۱ نیر را نظارت می‌کند، در حال توسعه راهکاری نوآورانه به نام «نماینده هوش مصنوعی» است تا انقلابی در نحوه عملکرد حاکمیت DAOها ایجاد کند.

نماینده هوش مصنوعی: دوقلوی دیجیتال شما در DAO

ایده اصلی پشت نمایندگان هوش مصنوعی، ایجاد یک «دوقلوی دیجیتال» برای هر کاربر است. این دوقلوی دیجیتال، که توسط هوش مصنوعی تقویت می‌شود، قرار است ترجیحات و الگوهای رفتاری کاربر خود را درک کند و سپس بر اساس آن‌ها در تصمیم‌گیری‌های حاکمیتی DAO عمل کند. لین رتیگ، محقق بنیاد نیر متخصص در حوزه هوش مصنوعی و حاکمیت، توضیح می‌دهد که هدف این سیستم، تبدیل فرآیند پیچیده رای‌گیری به یک «مسئله ریاضی» است که می‌تواند تقریباً فوراً انجام شود. به این ترتیب، کاربر دوقلوی دیجیتال خود را فعال می‌کند و این عامل هوشمند به نیابت از او عمل کرده و رای می‌دهد. علاوه بر این، این نماینده می‌تواند کاربران را نسبت به پیشنهاداتی که برایشان اهمیت دارد، آگاه کند و آن‌ها را در جریان امور مربوط به حاکمیت قرار دهد.

فرایند پیاده‌سازی این نمایندگان هوش مصنوعی به صورت مرحله‌ای خواهد بود. در گام‌های اولیه، مدل‌های هوش مصنوعی مشابه چت‌بات‌ها عمل می‌کنند و با «توانایی عمل پایین»، به کاربران در مورد پیشنهادات مشاوره می‌دهند، اطلاعات و زمینه مفید را فراهم می‌کنند و حتی می‌توانند قالب‌های اولیه را برای کاربران پر کنند تا آن‌ها احساس آگاهی بیشتری داشته باشند. در مراحل بعدی، این نمایندگان ابتدا گروه‌های بزرگ با ترجیحات رای‌گیری مشابه را نمایندگی خواهند کرد و سپس به سمت داشتن یک نماینده فردی برای هر عضو DAO و حتی احتمالاً مدیران عامل (CEO) هوش مصنوعی حرکت خواهند کرد. این رویکرد تدریجی، امکان آزمون و خطا و تکامل سیستم را در اکوسیستم بلاکچین فراهم می‌آورد.

چگونه نمایندگان هوش مصنوعی آموزش می‌بینند و عمل می‌کنند؟

نمایندگان هوش مصنوعی برای درک دقیق ترجیحات کاربران، همانند چت‌بات‌های هوش مصنوعی مولد مانند ChatGPT، از طریق تعاملات با کاربران آموزش می‌بینند. این آموزش شامل یک فرآیند مصاحبه، بررسی تاریخچه رای‌گیری کاربر و تحلیل پیام‌های او در پلتفرم‌های اجتماعی مانند تلگرام و دیسکورد است. رتیگ تاکید می‌کند که وقتی این عامل را فعال می‌کنید، شروع به شناختن شما می‌کند. نیاز دارد که ترجیحات سیاسی، انواع پروژه‌هایی که به آن‌ها اهمیت می‌دهید و نحوه تخصیص وجوه را بیاموزد. این فرآیند یادگیری جامع، به نماینده هوش مصنوعی کمک می‌کند تا تصمیماتی را اتخاذ کند که با ارزش‌ها و اهداف کاربر در حوزه کریپتو و حاکمیت غیرمتمرکز هماهنگ باشد.

تعداد عوامل هوش مصنوعی در صنعت کریپتو به سرعت در حال افزایش است؛ شرکت مدیریت سرمایه‌گذاری VanEck تخمین می‌زند که این تعداد تا پایان سال ۲۰۲۴ از ۱۰,۰۰۰ فراتر رفته و تا سال ۲۰۲۵ به بیش از ۱ میلیون خواهد رسید. این عوامل هوش مصنوعی در حال حاضر به‌طور گسترده در کریپتو برای ساخت برنامه‌های Web3، راه‌اندازی توکن‌ها و تعامل خودکار با خدمات و پروتکل‌ها استفاده می‌شوند. حتی برخی پلتفرم‌ها در حال بررسی استفاده از عوامل هوش مصنوعی برای معاملات خودکار و تصمیم‌گیری‌های بلادرنگ هستند. بنیاد نیر برای اطمینان از همسویی نمایندگان با ارزش‌های کاربر، از یک مدل آموزشی قابل تأیید استفاده می‌کند که اثبات رمزنگاری از چرخه‌های آموزشی و ورودی‌های آن را ارائه می‌دهد. این رویکرد به افزایش شفافیت و اعتماد در سیستم کمک می‌کند.

نقش حیاتی انسان و ملاحظات امنیتی

با وجود پتانسیل بالای نمایندگان هوش مصنوعی، نگرانی‌هایی در مورد خطرات امنیتی و احتمال اتخاذ تصمیمات نادرست در صورت اتکای بیش از حد به آن‌ها وجود دارد. لین رتیگ به شدت معتقد است که «همیشه باید یک انسان در حلقه تصمیم‌گیری وجود داشته باشد.» او توضیح می‌دهد که دسته‌ای از پیشنهادات وجود دارند که بسیار حیاتی‌تر از آن هستند که صرفاً به هوش مصنوعی واگذار شوند، مانند تخصیص وجوه یا تغییرات استراتژیک پروتکل. در این موارد، شما قطعاً می‌خواهید که انسان تصمیم نهایی را بگیرد و ماشه را بکشد. این رویکرد، اهمیت نظارت انسانی را در فرآیندهای حاکمیت بلاکچین و DAO به خوبی برجسته می‌کند، به‌خصوص در مواقعی که سرمایه‌های کاربران یا مسیر توسعه یک پروژه در خطر است.

حفظ امنیت و اطمینان از اینکه عوامل هوش مصنوعی به درستی عمل می‌کنند و در معرض حملات سایبری نیستند، یک اولویت کلیدی است. همان‌طور که عوامل هوش مصنوعی می‌توانند به بهبود کارایی و امنیت کمک کنند، می‌توانند نقاط ضعف جدیدی نیز ایجاد کنند. به عنوان مثال، اگر یک عامل هوش مصنوعی به اطلاعات حساس دسترسی داشته باشد یا در آموزش آن نقص امنیتی وجود داشته باشد، می‌تواند به یک خطر جدی تبدیل شود. بنیاد نیر با پیاده‌سازی ابزاری مانند Pulse در DAO اصلی خود، یعنی Near Digital Collective، که احساسات جامعه را ردیابی، انجمن‌های دیسکورد را خلاصه و محتوای مهم را برجسته می‌کند، قدم‌هایی در جهت بهبود حاکمیت و نظارت بر آن برداشته است. این ابزارها می‌توانند به تشخیص زودهنگام ناهنجاری‌ها و حفظ شفافیت در اکوسیستم بلاکچین کمک کنند و مکمل مهمی برای نمایندگان هوش مصنوعی باشند تا اطمینان حاصل شود که اهداف دیسنترالیزه (غیرمتمرکز) محقق می‌شوند و ریسک‌های امنیتی از جمله فیشینگ و سایر حملات به حداقل می‌رسند.

چگونگی آموزش همزادهای دیجیتال با داده‌های کاربر

در دنیای پویای کریپتو و بلاکچین، سازمان‌های خودگردان غیرمتمرکز (DAO) نقشی محوری در حاکمیت پروتکل‌ها و پروژه‌های وب۳ ایفا می‌کنند. با این حال، یکی از چالش‌های همیشگی که بسیاری از این سازمان‌ها با آن دست و پنجه نرم می‌کنند، نرخ پایین مشارکت رأی‌دهندگان است که اغلب بین ۱۵ تا ۲۵ درصد متغیر است. این عدم مشارکت می‌تواند منجر به تمرکز قدرت، تصمیم‌گیری‌های غیرمؤثر و حتی حملات حاکمیتی شود، جایی که عاملان مخرب با کسب توکن‌های کافی، پیشنهادهای آسیب‌زا را بدون اطلاع دیگر اعضا به تصویب می‌رسانند. در پاسخ به این چالش، بنیاد نیر (Near Foundation) در حال توسعه یک رویکرد نوآورانه است: «نمایندگان» یا «همزادهای دیجیتال» مبتنی بر هوش مصنوعی که در نهایت به نمایندگی از اعضای DAO رأی خواهند داد. این همزادهای دیجیتال قرار است ترجیحات کاربران را بیاموزند و بر اساس آن در تصمیم‌گیری‌های حاکمیتی عمل کنند و فرآیند رأی‌گیری را به یک «مسئله ریاضی» تبدیل کنند که می‌تواند «تقریباً فوراً» اتفاق بیفتد.

همزاد دیجیتال: پلی میان کاربر و حاکمیت غیرمتمرکز

ایده اصلی پشت همزادهای دیجیتال این است که هر کاربر یک نماینده مبتنی بر هوش مصنوعی خواهد داشت که به مرور زمان اولویت‌ها و دیدگاه‌های او را در مورد مسائل مختلف حاکمیتی در اکوسیستم بلاکچین درک می‌کند. این سیستم نه تنها به افزایش مشارکت کمک می‌کند، بلکه فرآیند پیچیده رأی‌گیری را ساده‌تر و کارآمدتر می‌سازد. به گفته لین رتیگ، پژوهشگر بنیاد نیر که در زمینه هوش مصنوعی و حاکمیت تخصص دارد، این همزادها می‌توانند در زمان مناسب، پیشنهادهای مرتبط با کاربر را به او اطلاع دهند و در صورت لزوم، به نمایندگی از او رأی دهند. این رویکرد به معنای تفویض اختیار هوشمندانه است که می‌تواند ضعف‌های فعلی DAOها را پوشش دهد و از بروز مسائلی نظیر تمرکز قدرت که از خطرات اصلی در دنیای کریپتو محسوب می‌شود، جلوگیری کند. با این حال، بنیاد نیر تأکید دارد که همیشه یک «عنصر انسانی» در این فرآیند دخیل خواهد بود، به‌ویژه برای تصمیم‌گیری‌های حیاتی مانند تخصیص وجوه یا تغییرات استراتژیک پروتکل.

روش‌های آموزش و کسب هویت دیجیتال توسط همزادها

فرآیند آموزش همزادهای دیجیتال بسیار شبیه به آموزش چت‌بات‌های هوش مصنوعی مولد مانند ChatGPT است. این نمایندگان هوش مصنوعی از طریق تعاملات گسترده با کاربران، داده‌ها را جمع‌آوری کرده و ترجیحات آن‌ها را می‌آموزند. این تعاملات شامل موارد متعددی می‌شود که به همزاد کمک می‌کند تا یک «هویت دیجیتال» منطبق با کاربر خود شکل دهد:

  • **فرآیند مصاحبه:** در ابتدا، ممکن است یک فرآیند مصاحبه اولیه برای شناخت بهتر کاربر انجام شود.
  • **تاریخچه رأی‌گیری:** تحلیل سوابق رأی‌گیری کاربر در DAOها، بینش‌های ارزشمندی در مورد اولویت‌های او ارائه می‌دهد.
  • **پیام‌ها در پلتفرم‌های اجتماعی:** پیام‌ها و تعاملات کاربر در پلتفرم‌هایی مانند تلگرام و دیسکورد، اطلاعاتی در مورد نظرات، نگرانی‌ها و علایق او در حوزه کریپتو و پروژه‌های بلاکچینی فراهم می‌کند.

رتیگ توضیح می‌دهد که همزاد دیجیتال نیاز دارد تا «ترجیحات سیاسی، نوع پروژه‌هایی که به آن‌ها اهمیت می‌دهید و اینکه فکر می‌کنید وجوه چگونه باید تخصیص یابد» را بیاموزد. این یادگیری مستمر به همزاد اجازه می‌دهد تا نه تنها به نمایندگی از کاربر رأی دهد، بلکه او را در مورد پیشنهادهای مرتبط آگاه کرده و حتی قالب‌های اولیه را برای پاسخ‌گویی به پیشنهادات پر کند تا کاربران احساس آگاه‌تر بودن داشته باشند. مدل‌های اولیه این همزادها بسیار شبیه به چت‌بات‌ها خواهند بود که با «توانایی عمل پایین» صرفاً مشاوره می‌دهند و اطلاعات مفیدی ارائه می‌کنند.

تضمین همسویی و چالش‌های امنیتی در فرآیند آموزش

با گسترش استفاده از عامل‌های هوش مصنوعی در صنعت کریپتو – که تخمین زده می‌شود تعداد آن‌ها تا پایان ۲۰۲۴ از ۱۰ هزار و تا پایان ۲۰۲۵ به یک میلیون برسد – نگرانی‌هایی در مورد خطرات امنیتی و پتانسیل تصمیم‌گیری‌های نادرست در صورت اتکای بیش از حد به آن‌ها وجود دارد. برای اطمینان از اینکه همزادهای دیجیتال با ارزش‌های کاربر همسو باقی می‌مانند، بنیاد نیر در حال کار بر روی یک «مدل آموزشی قابل تأیید» است. این مدل شواهد رمزنگاری شده‌ای از چرخه‌های آموزشی و ورودی‌های خود را نشان می‌دهد که به شفافیت و اعتماد کمک می‌کند. این امر برای جلوگیری از حملات احتمالی یا دستکاری‌های فیشینگ که می‌توانند امنیت وب۳ را به خطر اندازند، حیاتی است.

همچنین، همانطور که اشاره شد، بنیاد نیر قویاً معتقد است که «همیشه باید یک انسان در حلقه تصمیم‌گیری حضور داشته باشد.» این امر برای دسته‌بندی‌هایی از پیشنهادات که بیش از حد حیاتی هستند تا صرفاً به هوش مصنوعی واگذار شوند، از جمله موارد مربوط به تخصیص وجوه یا تغییرات استراتژیک، اهمیت بالایی دارد. برای مثال، DAO اصلی نیر، Near Digital Collective، قبلاً ابزار هوش مصنوعی Pulse را پیاده‌سازی کرده است که احساسات جامعه را ردیابی، انجمن‌های دیسکورد را خلاصه و محتوای مهم را برجسته می‌کند. این گام‌های اولیه نشان‌دهنده رویکرد مرحله‌ای و محتاطانه بنیاد نیر در جهت توسعه و استقرار همزادهای دیجیتال است که ابتدا با نمایندگی از گروه‌های بزرگ با ترجیحات رأی‌گیری مشابه آغاز شده و سپس به سمت داشتن یک نماینده فردی برای هر شخص پیش خواهد رفت.

نگرانی‌های امنیتی و راهکارهای پیشنهادی Near

پروتکل‌های بلاکچین و سازمان‌های خودگردان غیرمتمرکز (DAOs) با وجود پتانسیل بالای خود برای تمرکززدایی و دموکراتیزاسیون حاکمیت، اغلب با چالش جدی مشارکت پایین اعضا در فرآیندهای رأی‌گیری مواجه هستند. این موضوع، طبق برآوردهای مختلف، میانگین نرخ مشارکت در DAOها را به ۱۵ تا ۲۵ درصد کاهش می‌دهد. چنین سطحی از عدم مشارکت، زمینه‌ساز بروز مسائل متعددی از جمله تمرکز قدرت در دست عده‌ای معدود، تصمیم‌گیری‌های غیرموثر و در بدترین سناریوها، حملات حاکمیتی (governance attacks) می‌شود. در این حملات، یک عامل مخرب با کسب تعداد کافی توکن، می‌تواند پیشنهاداتی آسیب‌زننده را بدون اطلاع یا مخالفت سایر اعضا به تصویب برساند و امنیت کلی پروتکل را به خطر اندازد. در این راستا، بنیاد Near گام‌های بلندی برای رفع این کاستی‌ها و افزایش امنیت برداشته است.

چالش‌های حاکمیت DAO و ضرورت هوش مصنوعی

همانطور که اشاره شد، مشارکت پایین کاربران در فرآیندهای حاکمیت غیرمتمرکز یکی از موانع اصلی تحقق کامل وعده تمرکززدایی در فضای وب۳ است. این عدم مشارکت نه تنها منجر به ضعف در تصمیم‌گیری‌ها می‌شود، بلکه بستر را برای آسیب‌پذیری‌های امنیتی نیز فراهم می‌کند. بنیاد Near با درک این چالش، به دنبال توسعه «نمایندگان» مبتنی بر هوش مصنوعی است تا بتواند از طرف اعضای سازمان خودگردان غیرمتمرکز خود رأی دهند. هدف اصلی این پروژه، نه تنها افزایش چشمگیر نرخ مشارکت در اکوسیستم Near Protocol است، بلکه محافظت از ساختار حاکمیتی در برابر حملات احتمالی و تضمین پویایی و کارایی آن را نیز در بر می‌گیرد.

لین رتیگ، محقق بنیاد Near که در زمینه هوش مصنوعی و حاکمیت فعالیت می‌کند، توضیح می‌دهد که ایده اصلی این است که نماینده هر کاربر، یا «همزاد دیجیتال» او، ترجیحات و علایق وی را می‌آموزد و سپس بر اساس آن‌ها در تصمیم‌گیری‌های حاکمیتی عمل می‌کند. این فرآیند رأی‌گیری را به یک «مسئله ریاضی» تبدیل می‌کند که «تقریباً بلافاصله» می‌تواند انجام شود. این رویکرد جدید، به کاربران این امکان را می‌دهد که حتی بدون صرف زمان زیاد برای بررسی تک‌تک پیشنهادات، همچنان در حاکمیت پروتکل سهم داشته باشند و امنیت تصمیم‌گیری‌ها را بهبود بخشند. این نمایندگان همچنین می‌توانند کاربران را در مورد پیشنهاداتی که برایشان مرتبط است، آگاه کرده و راهنمایی کنند.

ریسک‌های بالقوه نمایندگان هوش مصنوعی و اهمیت نظارت انسانی

با وجود مزایای فراوان اتوماسیون از طریق هوش مصنوعی در حوزه کریپتو و وب۳، نگرانی‌های جدی نیز در مورد خطرات امنیتی و تصمیم‌گیری‌های نادرست در صورت اتکای بیش از حد به این عاملان وجود دارد. عاملان هوش مصنوعی می‌توانند تهدیدات امنیتی ایجاد کنند یا در تصمیمات مهم اشتباه کنند، به خصوص اگر سیستم‌های کنترلی کافی وجود نداشته باشد. لین رتیگ تأکید می‌کند که حتی با پیشرفت هوش مصنوعی، «همیشه باید یک انسان در حلقه تصمیم‌گیری وجود داشته باشد.» او معتقد است که دسته‌ای از پیشنهادات وجود دارند که آنقدر حیاتی و حساس هستند که نمی‌توان آن‌ها را صرفاً به هوش مصنوعی سپرد. این موارد شامل تصمیمات مربوط به تخصیص وجوه یا تغییرات استراتژیک در پروتکل می‌شود.

تصمیم‌گیری‌های کلیدی مالی و استراتژیک در یک DAO، تأثیرات گسترده‌ای بر کل اکوسیستم و کاربران آن دارند. واگذاری کامل این مسئولیت‌ها به یک عامل هوش مصنوعی، می‌تواند منجر به نتایجی غیرقابل پیش‌بینی یا حتی فاجعه‌بار شود. بنابراین، مدل حاکمیتی پیشنهادی Near، با وجود بهره‌گیری از هوش مصنوعی برای افزایش کارایی و مشارکت، بر حفظ عنصر انسانی به عنوان نقطه پایانی تأکید می‌کند. این رویکرد ترکیبی، به دنبال به حداکثر رساندن مزایای هوش مصنوعی در تسریع و تسهیل رأی‌گیری‌ها، در عین حال به حداقل رساندن ریسک‌های امنیتی ناشی از اتکای مطلق به آن است. به گفته رتیگ: «قطعاً دسته‌ای از کارها وجود دارد که می‌خواهید انسان تصمیم نهایی را بگیرد و ماشه را بکشد.»

راهکارهای بنیاد Near برای افزایش امنیت و شفافیت

بنیاد Near برای مقابله با نگرانی‌های امنیتی و تضمین اینکه نمایندگان هوش مصنوعی با ارزش‌های کاربران همسو باقی می‌مانند، چندین راهکار کلیدی را در نظر گرفته است. یکی از مهمترین این راهکارها، استفاده از یک «مدل آموزشی قابل تأیید» است. این مدل، اثبات رمزنگارانه (cryptographic proof) از چرخه‌های آموزشی و ورودی‌های خود را ارائه می‌دهد که این امکان را فراهم می‌سازد تا شفافیت در نحوه آموزش و عملکرد نماینده هوش مصنوعی برقرار شود و کاربران بتوانند به درستی آن اعتماد کنند.

علاوه بر این، Near Foundation رویکردی تدریجی را برای پیاده‌سازی این نمایندگان هوش مصنوعی در نظر گرفته است. این فرآیند شامل مراحل زیر است:

  • **مدل‌های اولیه و مشاوره‌ای:** در ابتدا، مدل‌های هوش مصنوعی بسیار شبیه به چت‌بات‌ها عمل می‌کنند و «عاملیت کمی» دارند. وظیفه آن‌ها مشاوره دادن در مورد پیشنهادات، ارائه اطلاعات مفید، زمینه و پر کردن الگوهای اساسی برای کاربران است تا آن‌ها احساس آگاهی بیشتری داشته باشند. این مرحله اولیه، ریسک‌های امنیتی را به حداقل می‌رساند و امکان آزمایش و بهبود سیستم را فراهم می‌کند.
  • **نمایندگی گروه‌های بزرگ:** در مرحله بعدی، نمایندگان هوش مصنوعی شروع به نمایندگی گروه‌های بزرگتری با ترجیحات رأی‌گیری مشابه خواهند کرد. این رویکرد، امکان مقیاس‌پذیری را فراهم کرده و به تدریج اعتماد به سیستم را افزایش می‌دهد.
  • **نمایندگی فردی:** در نهایت، هدف بلندمدت این است که هر عضو DAO یک نماینده هوش مصنوعی اختصاصی داشته باشد که به طور کامل با ترجیحات فردی او همسو باشد.

همچنین، Near Digital Collective، DAO اصلی Near، ابزاری مبتنی بر هوش مصنوعی به نام Pulse را از قبل پیاده‌سازی کرده است. Pulse وظیفه ردیابی احساسات جامعه، خلاصه‌سازی انجمن‌های دیسکورد و برجسته کردن محتوای مهم را بر عهده دارد. این ابزار به عنوان یک لایه اضافی برای درک پویایی جامعه و تقویت شفافیت در حاکمیت عمل می‌کند و به طور غیرمستقیم به امنیت و سلامت تصمیم‌گیری‌های DAO کمک شایانی می‌کند. نمایندگان هوش مصنوعی ترجیحات کاربر را از طریق تعاملاتی شامل مصاحبه، سابقه رأی‌گیری و پیام‌ها در پلتفرم‌های اجتماعی مانند تلگرام و دیسکورد می‌آموزند. این یادگیری عمیق تضمین می‌کند که «همزاد دیجیتال» به درستی علایق سیاسی و پروژه‌های مورد نظر کاربر را درک کند و در تخصیص وجوه مطابق با آن عمل نماید.

مراحل پیاده‌سازی و آینده نمایندگان هوشمند

چالش مشارکت پایین در سازمان‌های خودگردان غیرمتمرکز (DAO)

سازمان‌های خودگردان غیرمتمرکز یا DAOها (Decentralized Autonomous Organizations)، به عنوان ستون فقرات حاکمیت در بسیاری از پروتکل‌های بلاکچینی و وب۳ عمل می‌کنند. این ساختارها امکان تصمیم‌گیری جمعی را برای اعضا فراهم می‌آورند، اما همواره با یک چالش اساسی دست و پنجه نرم کرده‌اند: نرخ پایین مشارکت رأی‌دهندگان. طبق برآوردها، میانگین نرخ مشارکت در DAOها بین ۱۵% تا ۲۵% است. این رقم ناچیز، می‌تواند به پیامدهای جدی از جمله تمرکز قدرت در دست عده‌ای معدود، تصمیم‌گیری‌های غیرموثر و حتی حملات حاکمیتی منجر شود. در چنین حملاتی، یک بازیگر مخرب با خرید توکن‌های کافی می‌تواند بدون توجه سایر اعضا، پیشنهادات آسیب‌زا را به تصویب برساند. بنیاد نیر (Near Foundation)، که ناظر پروتکل لایه یک نیر است، در حال توسعه راه‌حلی نوآورانه برای مقابله با این معضل و افزایش پویایی حاکمیت غیرمتمرکز است.

«دوقلوهای دیجیتال» هوش مصنوعی: راه‌حلی برای حاکمیت هوشمند

پروژه بنیاد نیر شامل توسعه «نمایندگان» مبتنی بر هوش مصنوعی است که در نهایت به نمایندگی از اعضای DAO رأی خواهند داد. این نمایندگان، که از آن‌ها به عنوان «دوقلوهای دیجیتال» نیز یاد می‌شود، با هدف یادگیری ترجیحات هر کاربر و عمل بر اساس آن‌ها در زمان تصمیم‌گیری‌های حاکمتی طراحی شده‌اند. لین رتیگ، محقق بنیاد نیر در زمینه هوش مصنوعی و حاکمیت، توضیح می‌دهد که این سیستم فرآیند رأی‌گیری را به یک «مسئله ریاضی» تبدیل می‌کند که «تقریباً بلافاصله» قابل انجام است. این دوقلوی دیجیتال پس از فعال‌سازی، با کاربر تعامل کرده و اطلاعاتی مانند سوابق رأی‌گیری، مکالمات در پلتفرم‌های اجتماعی نظیر تلگرام و دیسکورد، و حتی یک فرآیند مصاحبه را برای شناخت ترجیحات سیاسی، علایق پروژه‌ای و دیدگاه‌های کاربر در مورد تخصیص وجوه، جمع‌آوری می‌کند. هدف نهایی این است که این عامل هوش مصنوعی به نمایندگی از کاربر عمل کرده، رأی دهد و پیشنهادات مرتبط را به او یادآوری کند تا تصمیم‌گیری آگاهانه‌تر صورت گیرد.

رویکرد مرحله‌ای و نقش انسان در حلقه تصمیم‌گیری

پیاده‌سازی نمایندگان هوش مصنوعی در بنیاد نیر به صورت مرحله‌ای خواهد بود. مدل‌های اولیه، مشابه ربات‌های چت ساده (chatbots)، وظیفه مشاوره در مورد پیشنهادات، ارائه اطلاعات و پر کردن قالب‌های اولیه را برای کاربران بر عهده خواهند داشت تا آن‌ها بهتر بتوانند تصمیم‌گیری کنند. در مراحل بعدی، این نمایندگان ابتدا گروه‌های بزرگ با ترجیحات رأی‌گیری مشابه را نمایندگی خواهند کرد و در نهایت به سمت داشتن یک نماینده هوش مصنوعی فردی برای هر عضو DAO پیش خواهند رفت. حتی احتمال وجود مدیران عامل هوش مصنوعی (AI delegate CEOs) نیز مطرح شده است. با این حال، لین رتیگ تاکید می‌کند که همواره یک عنصر انسانی در این فرآیند دخیل خواهد بود. او معتقد است که برخی از پیشنهادات، مانند تخصیص بودجه یا تغییرات استراتژیک کلان، به قدری حیاتی هستند که نمی‌توان تصمیم‌گیری نهایی را به طور کامل به هوش مصنوعی واگذار کرد. در چنین موارد حساسی، نیاز به مداخله و تصمیم نهایی انسان ضروری خواهد بود.

کاربردهای گسترده و رشد نمایندگان هوش مصنوعی در کریپتو

عوامل هوش مصنوعی (AI agents) در حال حاضر کاربرد گسترده‌ای در فضای کریپتو پیدا کرده‌اند. این عوامل برای ساخت برنامه‌های کاربردی وب۳، راه‌اندازی توکن‌ها، و تعامل خودمختار با سرویس‌ها و پروتکل‌ها استفاده می‌شوند. برخی پلتفرم‌ها حتی در حال بررسی استفاده از عوامل هوش مصنوعی برای معاملات خودکار و تصمیم‌گیری‌های آنی هستند. پیش‌بینی‌ها حاکی از رشد چشمگیر این فناوری است؛ موسسه مدیریت سرمایه‌گذاری VanEck تخمین می‌زند که تعداد عوامل هوش مصنوعی در صنعت کریپتو تا پایان سال ۲۰۲۴ از ۱۰,۰۰۰ فراتر رفته و تا سال ۲۰۲۵ به بیش از یک میلیون عامل خواهد رسید. این آمار نشان‌دهنده اهمیت روزافزون هوش مصنوعی در تحول اکوسیستم بلاکچین است. اما با گسترش این فناوری، توجه به جنبه‌های امنیتی و چالش‌های جدید نیز اهمیت پیدا می‌کند که نیازمند راهکارهای نوآورانه است.

چالش‌ها و تضمین امنیت نمایندگان هوش مصنوعی

با وجود پتانسیل بالای نمایندگان هوش مصنوعی، نگرانی‌هایی در مورد خطرات امنیتی و احتمال اتخاذ تصمیمات نادرست در صورت اتکای بیش از حد به آن‌ها وجود دارد. برای مثال، اگر یک عامل هوش مصنوعی بدون نظارت کافی بر اساس داده‌های ناقص یا مغرضانه آموزش ببیند، می‌تواند منجر به تصمیماتی شود که به جای منفعت، به پروتکل آسیب برساند. بنیاد نیر برای تضمین همسویی نمایندگان با ارزش‌های کاربران، از یک مدل آموزشی قابل تأیید (verifiable model training) استفاده می‌کند. این مدل شواهد رمزنگاری شده‌ای از چرخه‌های آموزشی و ورودی‌های خود را ارائه می‌دهد که شفافیت و اعتمادپذیری فرآیند یادگیری هوش مصنوعی را تضمین می‌کند. علاوه بر این، DAO اصلی نیر، یعنی Near Digital Collective، قبلاً ابزار هوش مصنوعی Pulse را پیاده‌سازی کرده است که احساسات جامعه را ردیابی، انجمن‌های دیسکورد را خلاصه و محتوای مهم را برجسته می‌کند. این اقدامات نشان‌دهنده تعهد بنیاد نیر به توسعه مسئولانه و امن هوش مصنوعی در حاکمیت است.

جمع‌بندی و توصیه نهایی: آینده حاکمیت غیرمتمرکز

پروژه «دوقلوهای دیجیتال» هوش مصنوعی بنیاد نیر گامی مهم در جهت حل چالش مشارکت پایین در DAOها و بهبود کارایی حاکمیت غیرمتمرکز است. این فناوری پتانسیل آن را دارد که فرآیند تصمیم‌گیری را دموکراتیک‌تر، سریع‌تر و موثرتر کند، در عین حال که قدرت را از دست عده‌ای محدود خارج می‌سازد. با این حال، همانطور که لین رتیگ نیز تاکید کرد، حفظ «انسان در حلقه» (human in the loop) برای تصمیمات حیاتی و نظارت مستمر بر عملکرد عوامل هوش مصنوعی ضروری است. کاربران باید همیشه از ماهیت این تکنولوژی‌ها آگاه باشند و همواره هوشیاری لازم را در برابر ریسک‌های احتمالی حفظ کنند. توصیه می‌شود همواره قبل از واگذاری کامل قدرت تصمیم‌گیری به سیستم‌های خودکار، از شفافیت و امنیت مکانیزم‌های آموزشی و عملیاتی آن‌ها اطمینان حاصل شود. این رویکرد ترکیبی از قدرت هوش مصنوعی و بینش انسانی، مسیر را برای آینده‌ای پایدارتر و کارآمدتر در حاکمیت غیرمتمرکز هموار خواهد ساخت.

اشتراک گذاری:
ملیکا اسماعیلی

نظرات خود را با ما به اشتراک بگذارید

آدرس ای میل شما نمایش داده نمیشود.