معرفی روش جدید سازنده چت جی پی تی برای جلوگیری از سوگیری فیکس سرور: شرکت اپن ای آی روش جدیدی جهت استفاده از جی پی تی -4 جهت تعدیل محتوا پیشنهاد کرده است. به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از تک کرانچ، شرکت اپن ای آی ادعا می کند که راهی جهت استفاده از جی پی تی -4، (مدل هوش مصنوعی مولد پرچم دار خود) جهت تعدیل محتوا بوجود آورده که بار نظارت تیم های انسانی را می کاهد. این تکنیک که طی پستی در وبلاگ رسمی اپن ای آی انتشار یافته است، متکی به تحریک جی پی تی -4 با خط مشی مورد نظر است. این روش مدل را در قضاوت های اعتدالی و ایجاد مجموعه آزمایشی از نمونه های محتوا که امکان دارد خط مشی را نقض کند یا نکند قرار می دهد. سپس کارشناسان نمونه ها را برچسب گذاری می کنند و برای آزمایش مدل، نمونه بدون برچسب را به جی پی تی -4 می دهند نتیجه این بود که برچسب های مدل با آن هایی که کارشناسان برچسب زده بودند مطابقت داشت و از آنجا خط مشی اصلاح می شود. کارشناسان می توانند با بررسی تفاوت های بین قضاوت های جی پی تی -4 و قضاوت های یک انسان، از جی پی تی -4 بخواهند تا دلیلهای مدنظر خود در مورد برچسب گذاری ارائه کرده، ابهام در تعاریف خط مشی را تحلیل و بررسی کند و بر این اساس در خط مشی توضیحات بیشتری ارائه کند. اپن ای آی ادعا می کند که پروسه آن می تواند زمان لازم برای اجرای سیاست های تعدیل محتوای جدید را به ساعت ها کم کند و آنرا برتر از نگاههای ارائه شده توسط استارتاپ هایی مانند آنتروپیک نشان داده است. ابزارهای تعدیل مبتنی بر هوش مصنوعی چیز جدیدی نیستند. پِرسپِکتیو توسط تیم فناوری مقابله با سو استفاده گوگل، چندین سال پیش در دسترس عموم قرار گرفت. چندین سال پیش، تیمی در ایالت پنسیلوانیا آمریکا دریافتند که پست هایی در شبکه های اجتماعی در مورد افراد دارای معلولیت می توانند با استفاده از مدلهای تشخیص بعنوان منفی تر یا آلوده تر علامت گذاری شوند. در مطالعه دیگری، پژوهشگران نشان دادند که نسخه های قدیمی پرسپکتیو اغلب نمی توانند سخنان تنفرآمیزی را که از تغییرات املایی استفاده می نماید، تشخیص دهند. بخشی از دلیل این شکست ها اینست که حاشیه نویس ها(افرادی که مسئول اضافه کردن برچسب ها به مجموعه داده های آموزشی هستند) سوگیری های خودرا به جدول می آورند. بعنوان مثال، اغلب، تفاوت هایی در حاشیه نویسی ها بین برچسب خانمهایی که خودرا آمریکایی های آفریقایی تبار معرفی می کنند و دیگران وجود دارد. مدل های هوش مصنوعی مولد مانند دال-ای2، سوگیری های اجتماعی را تقویت می کنند و تصاویری از موقعیت های اقتدار ایجاد می کنند مانند تصاویری از مردان سفید پوست در نقش مدیرعاملی. اما اپن ای آی هم بطور کامل این مشکل را حل نکرده و خود شرکت نیز این مورد را تایید می کند. این شرکت می نویسد: « مدلهای زبانی در مقابل سوگیری های ناخواسته ای لطمه پذیر هستند که امکان دارد در طول آموزش به مدل وارد شده باشند. مانند هر برنامه کاربردی هوش مصنوعی، نتایج و خروجی ها باید به دقت نظارت و اعتبار سنجی شوند و انسان ها در این حلقه آنرا اصلاح کنند.» شاید قدرت پیشبینی جی پی تی -4 بتواند به ارائه عملکرد اعتدال بهتر نسبت به پلت فرم های قبلی کمک نماید. اما حتی بهترین هوش مصنوعی امروزی هم اشتباه می کند. هوش مصنوعی این پتانسیل را دارد که به طرق مختلف برای جامعه مفید باشد. از استفاده از تحلیل و بررسی پیشبینی کننده برای کاهش خطر بلایا تا استفاده از نرم افزار ترجمه برای از بین بردن موانع زبان. این فناوری خواه ناخواه بر زندگی روزمره ما تأثیر گذاشته است. با این وجود، نتایج منفی نیز وجود دارد، بخصوص اگر اقدامات پیشگیرانه برای اطمینان از توسعه و استفاده مسئولانه و اخلاقی آن انجام نشود. در این میان رئیس جمهور آمریکا نیز اذعان کرده خطرات ناشی از هوش مصنوعی برای امنیت و اقتصاد احتیاج به رسیدگی دارد. منبع: فیكس سرور 1402/05/28 12:40:17 0.0 / 5 305 تگهای خبر: آموزش , پژوهش , سئو , فناوری این پست فیکس سرور را پسندیدید؟ (0) (0) X تازه ترین مطالب مرتبط چگونه مغز انسان تا این اندازه بزرگ شد؟ اروپا بازهم متا را جریمه کرد دستیابی چین به فناوری ذوب پهپادها متا میزان تبلیغات شخصی سازی شده را در اروپا کاهش می دهد نظرات بینندگان فیکس سرور در مورد این مطلب نظر شما در مورد این مطلب نام: ایمیل: نظر: سوال: = ۹ بعلاوه ۳