بنیانگذار اتریوم: حاکمیت مبتنی بر هوش مصنوعی ریسکی و خطرناک است


این روزها هوش مصنوعی به یکی از بحثبرانگیزترین موضوعات در عرصه فناوری و حتی حکمرانی تبدیل شده است، اما همه نگاهها به آینده آن مثبت نیست. ویتالیک بوترین، همبنیانگذار اتریوم، اخیراً هشدار داده که واگذاری تصمیمهای کلان و امور حساس به هوش مصنوعی میتواند پیامدهای خطرناکی به همراه داشته باشد.
بوترین بر این باور است که اگر وظایفی مانند تخصیص بودجه یا تصمیمهای حاکمیتی به دست سیستمهای هوش مصنوعی سپرده شود، امکان سوءاستفاده و نفوذهای امنیتی بالا میرود. او میگوید در چنین شرایطی مهاجمان میتوانند با «جیلبریک» کردن سیستم و ارسال درخواستهای جعلی، منابع مالی را سرقت کنند.
ریشه نگرانیها
این موضع بوترین پس از افشاگری ایتو میامورا، همبنیانگذار و مدیرعامل EdisonWatch، مطرح شد. میامورا توضیح داده بود که بهروزرسانی اخیر چتجیپیتی و پشتیبانی کامل آن از پروتکل Model Context (MCP) آسیبپذیری جدی ایجاد کرده است. این تغییر باعث میشود چتجیپیتی بتواند به سرویسهایی مانند جیمیل، تقویم و نُوشن متصل شود و دادههای کاربر را بخواند.
او هشدار داد که هکرها تنها با داشتن ایمیل قربانی، در سه مرحله ساده میتوانند به اطلاعات حساس او دسترسی پیدا کنند:
ارسال دعوتنامه مخرب در تقویم حاوی کد جیلبریک که حتی بدون تأیید کاربر میتواند خطرساز باشد.
انتظار تا زمانی که کاربر از چتجیپیتی برای مدیریت برنامه روزانه استفاده کند.
اجرای کد جیلبریک هنگام خوانده شدن تقویم توسط چتجیپیتی و در نهایت دسترسی کامل مهاجم به دادههای شخصی.
راهکار جایگزین
بوترین برای مقابله با این چالشها، مدلی با نام اینفو فایننس (Info Finance) پیشنهاد داده است. در این روش، تصمیمگیریها بهطور کامل بر عهده یک هوش مصنوعی قرار نمیگیرد، بلکه یک بازار باز ایجاد میشود که توسعهدهندگان مختلف میتوانند مدلهای خود را در آن ارائه دهند.
در این سیستم، مکانیسمی به نام بررسی تصادفی (spot-check) وجود دارد که هر کاربری میتواند آن را فعال کند و نتایج نیز توسط داوران انسانی ارزیابی میشود. داوران در این فرآیند میتوانند از مدلهای زبانی بزرگ بهعنوان ابزار کمکی بهره ببرند. به اعتقاد بوترین، این ترکیب، انعطافپذیری بیشتری ایجاد کرده و هم توسعهدهندگان و هم ناظران را به شناسایی و رفع مشکلات ترغیب میکند.
در حالی که بسیاری از کارشناسان از ایده «حاکمیت با هوش مصنوعی» استقبال میکنند، بوترین معتقد است این رویکرد در کوتاهمدت میتواند فاجعهبار باشد و خسارتهای سنگینی به بار آورد. او تأکید میکند:
«این کار به شدت پرریسک است؛ هم به خاطر آسیبپذیریهای ذاتی هوش مصنوعی و هم به دلیل اینکه میتواند در مدت کوتاهی باعث از بین رفتن سرمایههای کلان شود.»