پژوهشگر شبکههای اجتماعی
ظهور هوش مصنوعی مولد (Generative AI) و تجاریشدن آن، این روزها بسیاری را هیجانزده کرده است. امکانات جدیدی که هوش مصنوعی فراهم میکند، آینده را کاملا متفاوت از امروز خواهد کرد. اما راجع به این آینده، ابهامات زیادی وجود دارد. در کنار امکانات فراوانی که فناوری مبتنی بر هوش مصنوعی برای انسان فراهم میکند، احتمالا مخاطرات و آسیبهایی هم با خود بهدنبال خواهد داشت. بههمین دلیل نیز بسیاری از دانشگاههای دنیا پروژههای پژوهشی را تعریف کردند تا اثرات مثبت و منفی این تحول بزرگ در عرصه فناوری را بر سایر حوزه مطالعه کنند. در این میان، Chat GPT و سایر ChatBotهای مبتنی بر هوش مصنوعی، توجه بسیاری از پژوهشگران و علاقهمندان به فناوری را بهخود جلب کردهاند. روزی نیست که مطلب جدیدی راجع به امکانات Chat GPT و فرصتهای آن بحث نشود. یکی از امکانات جذاب Chat GPT تولید متن و محتواست. این ChatBot بر اساس درخواستی که از آن داریم، اقدام به تولید محتوا و متن میکند. امکان تولید متن و محتوا با بهکارگیری Chat GPT اگرچه فرصتهایی را در اختیار افراد و شرکتهای تجاری قرار میدهد، اما تهدیداتی را هم با خود بهدنبال دارد. یکی از این تهدیدها، گسترش اخبار جعلی و حتی اکانتهای جعلی است. امروزه مبارزه با اخبار جعلی یکی از دغدغههای مهم خبرنگاران، پژوهشگران و نهادهای مدنی و دولتی است و توسعه الگوریتمهای مناسب برای تشخیص اخبار جعلی و اکانتهای فیک در دستور کار آنها قرار دارد. اما با ظهور هوش مصنوعی مولد، ماجرا پیچیدهتر میشود. یک کاربر توئیتری را تصور کنید که بهطور مرتب از دیگران انتقاد میکند. هر توئیتی را که نگاه میکنید، انتقاد آن کاربر را پایین آن توئیت میبینید و از خود سوال میپرسید که این کاربر چطور فرصت میکند در تمام ساعات شبانهروز از دیگران انتقاد کند! این کار میتواند با کمک Chat GPT و بهطور اتوماتیک انجام شود. تنها کافی است که آن اکانت به Chat GPT متصل باشد و بهطور اتوماتیک هر توئیتی میبیند برای Chat GPT بفرستد و از آن بخواهد تا یک متن انتقادی راجع به آن توئیت بنویسد. سپس نتیجه را در توئیتر بهطور اتوماتیک منتشر کند.