[ad_1]
نوشته و ویرایش شده توسط مجله ی دنیای تکنولوژی
شرکت OpenAI اخیراً اسناد مرتبط با برسیهای امنیتی صورت گرفته حوالی آخرین نسخه از مدل GPT را انتشار کرده است. مطابق دادههای حاضر در این اسناد، مدل GPT-4o از لحاظ ریسکهای امنیتی در سطح متوسط قرار میگیرد.
آیا مدل GPT-4o از امنیت کافی برخوردار است؟
آخرین نسخه از مدل زبانی بزرگ OpenAI چند ماه قبل بهصورت عمومی در اختیار کاربران قرار گرفت. یقیناً این شرکت پیش از انتشار کردن گسترده مدل حرف هایشده، عمل به برسیهای امنیتی حوالی آن کرده است و از یک تیم متخصص غیر داخلی در عرصه امنیت سایبری برای یافتن نقصها و مشکلات پشتیبانی گرفته است. این چنین رویهای در زیاد تر شرکتهای بزرگ فناوری رایج است و پشتیبانی گرفتن از تیمهای امنیتی غیر داخلی میتواند صحت دادهها و مطمعن از درستی گزارشها را ضمانت کند. در بازدیدهای امنیتی GPT-4o مواردی همانند پیروی صدای افراد، تشکیل محتوای مستهجن یا خشونتآمیز در کنار اراعه محتوای شامل قانون کپیرایت مورد تمرکز قرار گرفته است. اکنون بعد از چندین ماه نتایج این بازدیدها از حالت محرمانه خارج شده و در دسترس علاقهمندان قرار گرفته است.
مطابق حرف های OpenAI، محققان مقدار ریسک GPT-4o را در سطح متوسط طبقهبندی کردهاند. این برسی مربوط به چندین فاکتور متفاوت است و سطح پرخطرترین قسمت بهگفتن مقدار ریسک کلی در نظر گرفتهمیبشود. مدل مذکور در سه عرصه شامل امنیت سایبری، تهدیدهای بیولوژیک و خودمختاری توانسته است سطح ریسک پایین را بهدست آورد که قابل قبول است. با این حال در عرصه متقاعدسازی، سطح ریسک در حد متوسط برسی شدهاست که جهت شده حالت کلی ریسک آن در سطح متوسط قرار بگیرد. کارشناسان باور دارند که برخی از متنهای تشکیل شده توسط این چتبات، میتوانند تأثیر بیشتری نسبت به متنهای نوشته شده توسط انسان روی ذهن مخاطب بسازند و جهتدار می باشند.
سخنگوی شرکت OpenAI در مصاحبه با نشریه The Verge حرف های است که یک برسی امنیتی مدلهای زبانی عظیم توسط یک تیم داخلی و چندین تیم خارجی انجام شدهاست. مطابق دادههای ثبت شده در وبسایت این شرکت، مؤسسههای جدا گانه METR و Apollo Research در تست کردن مدل GPT-4o در کنار تیم داخلی همکاری داشتهاند. شایانذکر است که در قبل نیز ناظر انتشار کردن عمومی نتایج بازدیدهای امنیتی مدلهای GPT-4 و DALL-E 3 بودیم؛ اما زمان انتشار کردن گزارش تازه مقداری تأمل برانگیز است. اکنون انتقادهای تعداد بسیاری نسبت به امنیت دادههای کاربران زمان منفعت گیری از چتبات OpenAI نقل شدهاست و حتی تهمتهایی توسط سناتورهای ایالات متحده به آن داخل شدهاست.

نزدیک شدن به انتخابات ریاست جمهوری آمریکا هم یکی دیگر از دلایلی است که نگرانیها حوالی مقدار امنیت ChatGPT را افزایش داده است. منتقدان باور دارند که این چتباتها میتوانند اشتباهاً دادههای نادرست را در اختیار کاربران خود قرار دهند یا توسط افراد سودجو مورد سوءاستفاده قرار بگیرند. OpenAI در عکس العمل به این اتهامات اظهار کرده است که مدام در حال تست کردن سناریوهای واقعی برای ارتقا سطح امنیت و دقت جوابهای اراعه شده توسط چتبات خود است. با این حال تعداد بسیاری اعتقاد دارند که شفافیت بیشتری حوالی روال گسترش مدلهای زبانی عظیم همانند GPT-4o نیاز است و گسترشدهنده آن باید اطلاعات بیشتری را حوالی دادههای مورد منفعت گیری برای تمرین مدلها را بهشکل عمومی انتشار کند.

زیاد تر غولهای فناوری اراعهکننده سرویسهای مبتنیبر هوش مصنوعی در ایالت کالیفرنیا قرار گرفتهاند. اسکات وینر یکی از سناتورهای این ایالت است که بهشدت پیگیر تصویب قانونی است که بهجهت آن، گسترشدهندگان نسبت به اراعه اطلاعات نادرست توسط چتباتهای خود مسئول می باشند. این چنین مطابق پیشنویس این قانون، مدلهای زبانی باید پیش از انتشار کردن عمومی، مورد برسی قرار بگیرند تا مراعات استانداردهای ایالتی در آنها اثبات بشود. با این حال اکنون هم چنان زیاد تر اطلاعات مرتبط با برسی مدلهای زبانی عظیم توسط خود گسترشدهندگان انتشار میبشود و نهاد قانونی خاصی به انجام این چنین کاری تعلق نیافته است.
دسته بندی مطالب
[ad_2]

