راهکارهایی که در آینده نزدیک کاربردی خواهند بود

هوش مصنوعی مولد، کل اکوسیستم اطلاعاتی را آلوده می‌کند و تردیدهایی درباره هر آنچه می‌خوانیم، می‌بینیم و می‌شنویم ایجاد می‌کند.

 پیشرفت‌های هوش‌مصنوعی مولد، باعث شده تا این روزها همه‌جا شاهد تصاویر، ویدیوها، صداها و ربات‌های جعلی باشیم؛ اما راهی برای تشخیص واقعی یا جعلی بودن این اطلاعات وجود دارد؟ شاید بتوان گفت که مطالعه، بهترین راه برای تشخیص واقعی بودن این موارد است.

سختی تشخیص تصاویر، ویدئو، صدا و متن تولیدشده توسط هوش مصنوعی در زمان فعلی سخت است و همین ما را در معرض دست‌کاری اطلاعات نادرست قرار می‌دهد؛ اما با دانستن وضعیت فعلی فناوری‌های هوش مصنوعی و طیف وسیعی از نشانه‌های گویا، می‌توانید از خودتان در مقابل این خطرات احتمالی محافظت کنید.

دراین‌بین، حتی رهبران جهان هم نگران هستند. طبق گزارش مجمع جهانی اقتصاد، اطلاعات نادرست ممکن است طی دو سال آینده، فرآیندهای انتخاباتی را در چندین کشور مختل کنند؛ درعین‌حال، دسترسی آسان‌تر به ابزارهای هوش مصنوعی همین حالا هم باعث انفجار اطلاعات جعلی و مصنوعی شده و محتواهای جعلی متعددی، از شبیه‌سازی صوتی پیچیده تا وب‌سایت‌های تقلبی ایجادشده است.

هانی فرید از دانشگاه کالیفرنیا دراین‌باره گفت: «مشکل اطلاعات نادرست مبتنی بر هوش مصنوعی در مقیاس، سرعت و سهولت راه‌اندازی کمپین‌هاست و یک فرد به‌تنهایی و تنها با دسترسی به قدرت محاسباتی متوسطی می‌تواند حجم عظیمی از محتوای جعلی ایجاد کند.» او در ادامه به این نکته اشاره کرد که هوش مصنوعی مولد، کل اکوسیستم اطلاعاتی را آلوده می‌کند و تردیدهایی درباره هر آنچه می‌خوانیم، می‌بینیم و می‌شنویم ایجاد می‌کند.

طبق تحقیقات فرید، گرچه در بسیاری از موارد، تصاویر و صداهای تولیدشده توسط هوش مصنوعی، قابل‌تشخیص نیستند ولی با استفاده از برخی استراتژی‌ها، می‌توان برای کاهش خطر فریب خوردن با اطلاعات نادرست رسانه‌های اجتماعی یا اطلاعات نادرست ایجادشده توسط هوش مصنوعی وارد عمل شد.

پنج سرنخ کاربردی برای تشخیص تصاویر تولیدی توسط هوش مصنوعی:

۱ تناقض‌های اجتماعی-فرهنگی: ممکن است در تصویر، رفتاری نادر، غیرعادی یا شگفت‌انگیز برای فرهنگ‌ها یا شخصیت‌های تاریخی خاص به نمایش درآمده باشد.

۲– تناقض‌های آناتومیک: به‌دقت به تصویر نگاه کنید. آیا اعضای بدن مثل دست‌ها، شکل یا اندازه‌ای غیرعادی دارند؟ آیا فرم چشم‌ها یا دهان عجیب به نظر می‌رسند؟ آیا برخی اعضای بدن باهم ادغام‌شده‌اند؟

۳– حالات غیرطبیعی: آیا تصویر غیرطبیعی به نظر می‌رسد؟ یا بیش‌ازحد ایده‌آل و بی‌عیب است؟ آیا پس‌زمینه عجیب است یا چیزی از آن کم شده؟ شاید نور عجیب یا متغیر است؟

۴ تردید در اشیای عملکردی: آیا برخی اشیا برایتان عجیب به نظر می‌رسند یا ممکن است واقعی نباشند یا کار نکنند؟ مثلاً موقعیت دکمه‌ها یا سگک‌های کمربند عجیب است؟

۵– نقض فیزیکی: دقت کنید که آیا سایه‌ها در تصویر در جهت‌های مختلف هستند؟ آیا انعکاس‌های آینه‌ای با دنیایی که در تصویر می‌بینید، سازگارند؟

شش اشتباه رایج در ویدیوهای تولیدی توسط هوش مصنوعی:

۱ حرکات دهان و لب: آیا در برخی لحظات ویدیو، تصویر و صدا به‌طور کامل همگام‌سازی نمی‌شوند؟

۲ اشکالات آناتومیک: ممکن است صورت یا بدن عجیب به نظر رسیده یا حرکات غیرطبیعی داشته باشند.

۳– صورت: وجود ناهماهنگی در صافی صورت یا چین‌وچروک‌های اطراف پیشانی و گونه‌ها یا خال‌های صورت نشان دیگری برای تشخیص فیک بودن ویدیو است.

۴– نورپردازی: اگر نورپردازی ناسازگار است و سایه‌ها حرکاتی غیرعادی دارند، ممکن است ویدیو فیک باشد. درعین‌حال به چشم‌ها، ابروها و عینک افراد توجه کنید.

۵– مو: آیا موها حالت عجیبی دارند تا به شیوه غیر نرمالی حرکت می‌کنند.

۶– پلک زدن: پلک زدن زیاد یا کم می‌تواند نشانه‌ای از دیپ فیک باشد.

دسته جدیدتری از دیپ‌فیک‌های ویدیویی مبتنی بر مدل‌های diffusion هستند که می‌توانند ویدیوهایی را براساس پیام‌های متنی توسط هوش مصنوعی ایجاد کنند و شرکت‌ها در حال آزمایش و انتشار نسخه‌هایی هستند که هرکسی می‌تواند بدون دانش فنی خاصی این کار را انجام دهد ولی تا امروز در ویدئوهای به‌دست‌آمده، چهره‌ها مخدوش یا حرکات بدن عجیب هستند.

«تشخیص ویدیوهای تولیدی با هوش مصنوعی، برای مردم آسان‌تر از عکس‌های فیک است؛ چراکه درحرکت، فرصت تشخیص حرکات غیرطبیعی بیشتر خواهد بود.»

نحوه شناسایی ربات‌های هوش مصنوعی

این روزها استفاده از ربات‌های کامپیوتری در حساب‌های رسانه‌های اجتماعی و پلتفرم‌های پیام‌رسان رایج شده و بسیاری از این ربات‌ها از فناوری‌های هوش مصنوعی بهره می‌برند. از این طریق تولید محتوا با هوش مصنوعی از طریق ربات‌هایی که برای موقعیت‌های مختلف سفارشی ساخته می‌شوند، بسیار ارزان و آسان خواهد بود.

پل برنر از دانشگاه نوتردام دراین‌باره گفت: «سفارشی کردن مدل‌های زبان بزرگ برای مخاطبان خاص، با پیام‌های خاص آسان‌تر شده است.» او و همکارانش در تحقیقاتشان دریافتند که داوطلبان تنها در ۴۲% مواقع ربات‌های مجهز به هوش مصنوعی را از انسان تشخیص می‌دهند؛ آن‌هم درحالی‌که به شرکت‌کنندگان گفته‌شده بود که با ربات‌ها تعامل دارند.

پنج روش برای تشخیص ربات هوش مصنوعی در رسانه‌های اجتماعی

۱- استفاده زیاد از ایموجی‌ها و هشتگ‌ها

۲- استفاده از عبارات غیرمتداول، انتخاب کلمات یا تشبیهات

۳- استفاده از عبارات تکراری با اشکال مشابه یا سفت‌وسخت؛ یا استفاده بیش‌ازحد از برخی اصطلاحات عامیانه

۴- عدم آگاهی کامل: یعنی با پرسیدن چند سؤال، به‌ویژه درباره مکان یا موقعیت‌های محلی، می‌توانید متوجه عدم آگاهی یک ربات از یک موضوع آشکار شوید

۵- اگر یک حساب رسانه اجتماعی، یک مخاطب شخصی نیست و هویتش به‌وضوح تأیید نشده، ممکن است یک ربات هوش مصنوعی باشد.

تشخیص دیپ فیک گفتاری

ابزارهای هوش‌مصنوعی، شبیه‌سازی صدا یا تولید صدای گفتاری جدید را آسان کرده و همین منجر به افزایش کلاه‌برداری‌های صوتی شده است که صدای اعضای خانواده، مدیران شرکت و رهبران سیاسی حتی جو بایدن را شبیه‌سازی می‌کند. شناسایی این موارد در مقایسه با ویدیوها یا تصاویر تولیدشده با هوش مصنوعی بسیار سخت‌تر است.

ریچل توباک، یکی از بنیان‌گذاران SocialProof Security(یک سازمان هک کلاه‌سفید) دراین‌باره گفته: «متمایز کردن صدای واقعی و شبیه‌سازی‌شده، واقعاً چالش‌برانگیز است، زیرا اجزای بصری خاصی برای حمایت از مغز ما در شناسایی در این زمینه وجود ندارد.»

پیشرفت روزافزون فناوری

طبق آنچه گفته شد، هیچ قانون منسجمی برای تشخیص محتوای تولیدشده توسط هوش مصنوعی با محتوای واقعی انسانی وجود ندارد. مدل‌های هوش مصنوعی مورداستفاده برای تولید متن، تصویر، ویدئو و صدا، دائماً در حال پیشرفت هستند و به‌سرعت محتواهایی معتبر و بدون هیچ‌گونه اشتباهات آشکاری تولید کنند.

توباک دراین‌باره گفت: «هوش مصنوعی عکس‌ها، ویدیوها و صداها را به‌سرعت و درزمانی کمتر از ۳۰ ثانیه دست‌کاری و تولید می‌کند. همین کار را برای افرادی که به دنبال فریب دادن مردم هستند راحت می‌کند تا خیلی سریع اطلاعات نادرست را توسط هوش مصنوعی تولید کرده و چند دقیقه بعد آن‌ها را در شبکه‌های اجتماعی به اشتراک بگذارند.»

از همین رو بسیار مهم است که اطلاعات نادرست تولیدشده توسط هوش مصنوعی را بررسی کنید که سؤالات بیشتری بپرسید؛ درنهایت این اقدامات هم برای جلوگیری از آسیب کافی نخواهد بود و به‌طورقطع موارد جعلی تشخیص داده نخواهد شد.

khabaronline.ir/xmG7y