خبرساز هوش مصنوعی‌ای که گفته بودیم برای انتشار بیش از حد خطرناکه، منتشر شد

مدتی قبل توی رادیو گیک از یک سیستم هوش مصنوعی گفته بودیم که سازندگانش می گفتن برای انتشار بیش از حد خطرناکه و اونو فعلا منتشر نیم کنن. این سیستم می‌تونست با گرفتن یه تیتر یا چند جمله اول یک خبر، براش ادامه ای رو جعل کنه که از نظر ما انسان‌ها، منطقی و طبیعی به نظر برسه. حالا OpenAI این برنامه رو منتشر کرده.

اونها می‌گن فعلا همه چیز مرتب بوده و کسی از سیستمشون استفاده نامناسبی نکرده. اونها می‌گن مدلشون که بهش GPT-2 می گن فعلا استفاد های برای اسپم و اخبار غیرواقعی ساختن نداشته ولی مدعی هستن که آدم ها نتیجه کارشون رو دوست داشتن و متن های تولید شده منطقی بودن. اما سیستم های مستقل که برنامه رو تست کردن مدعی هستن که فعلا با اینکه متن خوب نوشته شده، اما به خاطر عدم درک دقیق محتوا، کاملا می شه حدس زد که چیزهای بی ربط به همدیگه وصل شدن. دانشگاه کرنل، میزان باورپذیری GPT-2 رو ۶.۹۱ از ۱۰ ارزیابی کرده.

اگر خودتون هم دوست دارین سیستم رو تست کنین، کافیه چند جمله ای اینجا بنویسین تا سیستم جملات شما رو براتون کامل کنه.