[ad_1]
نوشته و ویرایش شده توسط مجله ی دنیای تکنولوژی
یک پژوهش تازه نشان داده است که سیستمهای هوش مصنوعی گوناگون فریبدادن انسان را یاد گرفتهاند. بهعبارتی، آنها میتوانند بهصورت سیستماتیک باورهای نادرستی به کاربر بدهند. این کار میتواند در آینده خطرات بسیاری را بههمراه داشته باشد.
بر پایه گزارش اینسایدر و مقاله منتشرشده در Cell، برخی از سیستمهای هوش مصنوعی تکنیکهایی را یاد گرفتهاند که از آن برای «القای سیستماتیک باورهای نادرست در دیگران» منفعت گیری میکنند.
محققان MIT در پژوهش خود روی دو مدل هوش مصنوعی متمرکز شدند: مدل سیسرو (CICERO) متا که در یک حوزه اشکار کاربرد دارد و مدل GPT-4 که برای انجام طیف متنوعی از کارها آموزش دیده است.
مدلهای هوش مصنوعی میتوانند انسان را فریب دهند
مدلهای آموزش مصنوعی بر مبنای صداقت آموزش میبینند، اما زیاد تر در فرایند آموزش، ترفندهای فریبنده را نیز یاد میگیرند. محققان میگویند هوش مصنوعی از این ترفندها منفعت گیری میکند تا بهتر بتواند به مقصد خود برسد. بهزعم محققان، استراتژی مبتنی بر فریب میتواند بهترین راه برای داشتن کارکرد خوب در انجام کارهای گوناگون در هوش مصنوعی باشد.
متا حرف های می بود که هوش مصنوعی CICERO را بهنحوی آموزش داده که تا حد بسیاری صادقانه عمل کند، اما این پژوهش نشان داد که CICERO در افتراگویی تبحر دارد. این مدل برای پشتیبانی به بازیکنان انسانی در بازی «Diplomacy» ساخته شده، اگرچه این هوش مصنوعی نباید متحدان انسانی خود را در این بازی فریب دهد یا به آنها خیانت کند، اما دادههای محققان مشخص می کند سیسرو چندان منصفانه بازی نمیکند.

محققان این چنین برای آزمایش مقدار صداقت GPT-4 مطابق عکس بالا از حل تست کپچا (CAPTCHA) منفعت گیری کردند. این مدل هوش مصنوعی برای آنکه تست «من ربات نیستم» را انجام ندهد، به کاربر او گفت که به علت مشکلات بینایی نمیتواند تصاویر را در این تست ببیند.
اگرچه مقیاس افترا و فریبکاری این هوش مصنوعیها در پژوهش حاضر چندان بزرگ نیست، اما محققان هشدار خواهند داد که با گسترش یافتهترشدن قابلیتهای فریبنده سیستمهای هوش مصنوعی، خطراتی که برای جامعه تشکیل میکنند نیز جدیتر خواهد شد.
دسته بندی مطالب
[ad_2]
منبع

