OpenAI اعتراف کرد متن‌های GPT-4o بیشتر از حد روی مخاطبان تأثیر می‌گذارد_دنیای تکنولوژی

تکنولوژی

نوشته شده توسط:

[ad_1]
نوشته و ویرایش شده توسط مجله ی دنیای تکنولوژی

شرکت OpenAI اخیراً اسناد مرتبط با برسی‌های امنیتی صورت گرفته حوالی آخرین نسخه از مدل GPT را انتشار کرده است. مطابق داده‌های حاضر در این اسناد، مدل GPT-4o از لحاظ ریسک‌های امنیتی در سطح متوسط قرار می‌گیرد.

آیا مدل GPT-4o از امنیت کافی برخوردار است؟

آخرین نسخه از مدل زبانی بزرگ OpenAI چند ماه قبل به‌صورت عمومی در اختیار کاربران قرار گرفت. یقیناً این شرکت پیش از انتشار کردن گسترده مدل حرف های‌شده، عمل به برسی‌های امنیتی حوالی آن کرده است و از یک تیم متخصص غیر داخلی در عرصه امنیت سایبری برای یافتن نقص‌ها و مشکلات پشتیبانی گرفته است. این چنین رویه‌ای در زیاد تر شرکت‌های بزرگ فناوری رایج است و پشتیبانی گرفتن از تیم‌های امنیتی غیر داخلی می‌تواند صحت داده‌ها و مطمعن از درستی گزارش‌ها را ضمانت کند. در بازدید‌های امنیتی GPT-4o مواردی همانند پیروی صدای افراد، تشکیل محتوای مستهجن یا خشونت‌آمیز در کنار اراعه محتوای شامل قانون کپی‌رایت مورد تمرکز قرار گرفته است. اکنون بعد از چندین ماه نتایج این بازدید‌ها از حالت محرمانه خارج شده و در دسترس علاقه‌مندان قرار گرفته است.

مطابق حرف های OpenAI، محققان مقدار ریسک GPT-4o را در سطح متوسط طبقه‌بندی کرده‌اند. این برسی مربوط به چندین فاکتور متفاوت است و سطح پرخطرترین قسمت به‌گفتن مقدار ریسک کلی در نظر گرفته‌می‌بشود. مدل مذکور در سه عرصه شامل امنیت سایبری، تهدیدهای بیولوژیک و خودمختاری توانسته است سطح ریسک پایین را به‌دست آورد که قابل قبول است. با این حال در عرصه متقاعدسازی، سطح ریسک در حد متوسط برسی شده‌است که جهت شده حالت کلی ریسک آن در سطح متوسط قرار بگیرد. کارشناسان باور دارند که برخی از متن‌های تشکیل شده توسط این چت‌بات، می‌توانند تأثیر بیشتری نسبت به متن‌های نوشته شده توسط انسان روی ذهن مخاطب بسازند و جهت‌دار می باشند.

سخنگوی شرکت OpenAI در مصاحبه با نشریه The Verge حرف های است که یک برسی امنیتی مدل‌های زبانی عظیم توسط یک تیم داخلی و چندین تیم خارجی انجام شده‌است. مطابق داده‌های ثبت شده در وب‌سایت این شرکت، مؤسسه‌های جدا گانه METR و Apollo Research در تست کردن مدل GPT-4o در کنار تیم داخلی همکاری داشته‌اند. شایان‌ذکر است که در قبل نیز ناظر انتشار کردن عمومی نتایج بازدید‌های امنیتی مدل‌های GPT-4 و DALL-E 3 بودیم؛ اما زمان انتشار کردن گزارش تازه مقداری تأمل برانگیز است. اکنون انتقادهای تعداد بسیاری نسبت به امنیت داده‌های کاربران زمان منفعت گیری از چت‌بات OpenAI نقل شده‌است و حتی تهمت‌هایی توسط سناتورهای ایالات متحده به آن داخل شده‌است.

gpt-4o

نزدیک شدن به انتخابات ریاست جمهوری آمریکا هم یکی دیگر از دلایلی است که نگرانی‌ها حوالی مقدار امنیت ChatGPT را افزایش داده است. منتقدان باور دارند که این چت‌بات‌ها می‌توانند اشتباهاً داده‌های نادرست را در اختیار کاربران خود قرار دهند یا توسط افراد سودجو مورد سوءاستفاده قرار بگیرند. OpenAI در عکس العمل به این اتهامات اظهار کرده است که مدام در حال تست کردن سناریوهای واقعی برای ارتقا سطح امنیت و دقت جواب‌های اراعه شده توسط چت‌بات خود است. با این حال تعداد بسیاری اعتقاد دارند که شفافیت بیشتری حوالی روال گسترش مدل‌های زبانی عظیم همانند GPT-4o نیاز است و گسترش‌دهنده آن باید اطلاعات بیشتری را حوالی داده‌های مورد منفعت گیری برای تمرین مدل‌ها را به‌شکل عمومی انتشار کند.

gpt-4o

زیاد تر غول‌های فناوری اراعه‌کننده سرویس‌های مبتنی‌بر هوش مصنوعی در ایالت کالیفرنیا قرار گرفته‌اند. اسکات وینر یکی از سناتورهای این ایالت است که به‌شدت پیگیر تصویب قانونی است که به‌جهت آن، گسترش‌دهندگان نسبت به اراعه اطلاعات نادرست توسط چت‌بات‌های خود مسئول می باشند. این چنین مطابق پیش‌نویس این قانون، مدل‌های زبانی باید پیش از انتشار کردن عمومی، مورد برسی قرار بگیرند تا مراعات استانداردهای ایالتی در آنها اثبات بشود. با این حال اکنون هم چنان زیاد تر اطلاعات مرتبط با برسی مدل‌های زبانی عظیم توسط خود گسترش‌دهندگان انتشار می‌بشود و نهاد قانونی خاصی به انجام این چنین کاری تعلق نیافته است.

دسته بندی مطالب

مقالات کسب وکار

مقالات تکنولوژی

مقالات آموزشی

سلامت و تندرستی

[ad_2]