مجله خبری سرمایه گذاری اهرم
Loading...

نتایج جستجو

بازگشت
بازگشت

بنیان‌گذار اتریوم: حاکمیت مبتنی بر هوش مصنوعی ریسکی و خطرناک است

بنیان‌گذار اتریوم: حاکمیت مبتنی بر هوش مصنوعی ریسکی و خطرناک است
نوشته شده توسط رهام بخشائي
|
۲۴ شهریور، ۱۴۰۴

این روزها هوش مصنوعی به یکی از بحث‌برانگیزترین موضوعات در عرصه فناوری و حتی حکمرانی تبدیل شده است، اما همه نگاه‌ها به آینده آن مثبت نیست. ویتالیک بوترین، هم‌بنیان‌گذار اتریوم، اخیراً هشدار داده که واگذاری تصمیم‌های کلان و امور حساس به هوش مصنوعی می‌تواند پیامدهای خطرناکی به همراه داشته باشد.
بوترین بر این باور است که اگر وظایفی مانند تخصیص بودجه یا تصمیم‌های حاکمیتی به دست سیستم‌های هوش مصنوعی سپرده شود، امکان سوءاستفاده و نفوذهای امنیتی بالا می‌رود. او می‌گوید در چنین شرایطی مهاجمان می‌توانند با «جیلبریک» کردن سیستم و ارسال درخواست‌های جعلی، منابع مالی را سرقت کنند.

 

ریشه نگرانی‌ها

این موضع بوترین پس از افشاگری ایتو میامورا، هم‌بنیان‌گذار و مدیرعامل EdisonWatch، مطرح شد. میامورا توضیح داده بود که به‌روزرسانی اخیر چت‌جی‌پی‌تی و پشتیبانی کامل آن از پروتکل Model Context (MCP) آسیب‌پذیری جدی ایجاد کرده است. این تغییر باعث می‌شود چت‌جی‌پی‌تی بتواند به سرویس‌هایی مانند جیمیل، تقویم و نُوشن متصل شود و داده‌های کاربر را بخواند.
او هشدار داد که هکرها تنها با داشتن ایمیل قربانی، در سه مرحله ساده می‌توانند به اطلاعات حساس او دسترسی پیدا کنند:
ارسال دعوت‌نامه مخرب در تقویم حاوی کد جیلبریک که حتی بدون تأیید کاربر می‌تواند خطرساز باشد.
انتظار تا زمانی که کاربر از چت‌جی‌پی‌تی برای مدیریت برنامه روزانه استفاده کند.
اجرای کد جیلبریک هنگام خوانده شدن تقویم توسط چت‌جی‌پی‌تی و در نهایت دسترسی کامل مهاجم به داده‌های شخصی.

 

راهکار جایگزین

بوترین برای مقابله با این چالش‌ها، مدلی با نام اینفو فایننس (Info Finance) پیشنهاد داده است. در این روش، تصمیم‌گیری‌ها به‌طور کامل بر عهده یک هوش مصنوعی قرار نمی‌گیرد، بلکه یک بازار باز ایجاد می‌شود که توسعه‌دهندگان مختلف می‌توانند مدل‌های خود را در آن ارائه دهند.
در این سیستم، مکانیسمی به نام بررسی تصادفی (spot-check) وجود دارد که هر کاربری می‌تواند آن را فعال کند و نتایج نیز توسط داوران انسانی ارزیابی می‌شود. داوران در این فرآیند می‌توانند از مدل‌های زبانی بزرگ به‌عنوان ابزار کمکی بهره ببرند. به اعتقاد بوترین، این ترکیب، انعطاف‌پذیری بیشتری ایجاد کرده و هم توسعه‌دهندگان و هم ناظران را به شناسایی و رفع مشکلات ترغیب می‌کند.
در حالی که بسیاری از کارشناسان از ایده «حاکمیت با هوش مصنوعی» استقبال می‌کنند، بوترین معتقد است این رویکرد در کوتاه‌مدت می‌تواند فاجعه‌بار باشد و خسارت‌های سنگینی به بار آورد. او تأکید می‌کند:
«این کار به‌ شدت پرریسک است؛ هم به خاطر آسیب‌پذیری‌های ذاتی هوش مصنوعی و هم به دلیل اینکه می‌تواند در مدت کوتاهی باعث از بین رفتن سرمایه‌های کلان شود.»

اشتراک گذاری:
کپی شد