جستجو برای:
سبد خرید 0
  • خانه
  • وبلاگ
  • رویدادها
  • محصولات
  • تماس با ما
    • شیراز
      09933267966
      savadrasaneh.info@gmail.com
      اینستاگرام
      کانال تلگرام
  • درباره ما
ورود
[suncode_otp_login_form]
گذرواژه خود را فراموش کرده اید؟
عضویت
[suncode_otp_registration_form]

داده های شخصی شما برای پشتیبانی از تجربه شما در این وب سایت، برای مدیریت دسترسی به حساب کاربری شما و برای اهداف دیگری که در سیاست حفظ حریم خصوصی ما شرح داده می شود مورد استفاده قرار می گیرد.

سواد رسانه
  • خانه
  • وبلاگ
  • رویدادها
  • محصولات
  • تماس با ما
    • شیراز
      09933267966
      savadrasaneh.info@gmail.com
      اینستاگرام
      کانال تلگرام
  • درباره ما
شروع کنید
0

وبلاگ

سواد رسانه > اخبار > مقالات آموزشی > چطور فریب عکس و فیلم‌های تولیدشده توسط هوش مصنوعی را نخوریم؟

چطور فریب عکس و فیلم‌های تولیدشده توسط هوش مصنوعی را نخوریم؟

1 مهر 1403
ارسال شده توسط
مقالات آموزشی

راهکارهایی که در آینده نزدیک کاربردی خواهند بود

هوش مصنوعی مولد، کل اکوسیستم اطلاعاتی را آلوده می‌کند و تردیدهایی درباره هر آنچه می‌خوانیم، می‌بینیم و می‌شنویم ایجاد می‌کند.

 پیشرفت‌های هوش‌مصنوعی مولد، باعث شده تا این روزها همه‌جا شاهد تصاویر، ویدیوها، صداها و ربات‌های جعلی باشیم؛ اما راهی برای تشخیص واقعی یا جعلی بودن این اطلاعات وجود دارد؟ شاید بتوان گفت که مطالعه، بهترین راه برای تشخیص واقعی بودن این موارد است.

سختی تشخیص تصاویر، ویدئو، صدا و متن تولیدشده توسط هوش مصنوعی در زمان فعلی سخت است و همین ما را در معرض دست‌کاری اطلاعات نادرست قرار می‌دهد؛ اما با دانستن وضعیت فعلی فناوری‌های هوش مصنوعی و طیف وسیعی از نشانه‌های گویا، می‌توانید از خودتان در مقابل این خطرات احتمالی محافظت کنید.

دراین‌بین، حتی رهبران جهان هم نگران هستند. طبق گزارش مجمع جهانی اقتصاد، اطلاعات نادرست ممکن است طی دو سال آینده، فرآیندهای انتخاباتی را در چندین کشور مختل کنند؛ درعین‌حال، دسترسی آسان‌تر به ابزارهای هوش مصنوعی همین حالا هم باعث انفجار اطلاعات جعلی و مصنوعی شده و محتواهای جعلی متعددی، از شبیه‌سازی صوتی پیچیده تا وب‌سایت‌های تقلبی ایجادشده است.

هانی فرید از دانشگاه کالیفرنیا دراین‌باره گفت: «مشکل اطلاعات نادرست مبتنی بر هوش مصنوعی در مقیاس، سرعت و سهولت راه‌اندازی کمپین‌هاست و یک فرد به‌تنهایی و تنها با دسترسی به قدرت محاسباتی متوسطی می‌تواند حجم عظیمی از محتوای جعلی ایجاد کند.» او در ادامه به این نکته اشاره کرد که هوش مصنوعی مولد، کل اکوسیستم اطلاعاتی را آلوده می‌کند و تردیدهایی درباره هر آنچه می‌خوانیم، می‌بینیم و می‌شنویم ایجاد می‌کند.

طبق تحقیقات فرید، گرچه در بسیاری از موارد، تصاویر و صداهای تولیدشده توسط هوش مصنوعی، قابل‌تشخیص نیستند ولی با استفاده از برخی استراتژی‌ها، می‌توان برای کاهش خطر فریب خوردن با اطلاعات نادرست رسانه‌های اجتماعی یا اطلاعات نادرست ایجادشده توسط هوش مصنوعی وارد عمل شد.

پنج سرنخ کاربردی برای تشخیص تصاویر تولیدی توسط هوش مصنوعی:

۱– تناقض‌های اجتماعی-فرهنگی: ممکن است در تصویر، رفتاری نادر، غیرعادی یا شگفت‌انگیز برای فرهنگ‌ها یا شخصیت‌های تاریخی خاص به نمایش درآمده باشد.

۲– تناقض‌های آناتومیک: به‌دقت به تصویر نگاه کنید. آیا اعضای بدن مثل دست‌ها، شکل یا اندازه‌ای غیرعادی دارند؟ آیا فرم چشم‌ها یا دهان عجیب به نظر می‌رسند؟ آیا برخی اعضای بدن باهم ادغام‌شده‌اند؟

۳– حالات غیرطبیعی: آیا تصویر غیرطبیعی به نظر می‌رسد؟ یا بیش‌ازحد ایده‌آل و بی‌عیب است؟ آیا پس‌زمینه عجیب است یا چیزی از آن کم شده؟ شاید نور عجیب یا متغیر است؟

۴– تردید در اشیای عملکردی: آیا برخی اشیا برایتان عجیب به نظر می‌رسند یا ممکن است واقعی نباشند یا کار نکنند؟ مثلاً موقعیت دکمه‌ها یا سگک‌های کمربند عجیب است؟

۵– نقض فیزیکی: دقت کنید که آیا سایه‌ها در تصویر در جهت‌های مختلف هستند؟ آیا انعکاس‌های آینه‌ای با دنیایی که در تصویر می‌بینید، سازگارند؟

شش اشتباه رایج در ویدیوهای تولیدی توسط هوش مصنوعی:

۱– حرکات دهان و لب: آیا در برخی لحظات ویدیو، تصویر و صدا به‌طور کامل همگام‌سازی نمی‌شوند؟

۲– اشکالات آناتومیک: ممکن است صورت یا بدن عجیب به نظر رسیده یا حرکات غیرطبیعی داشته باشند.

۳– صورت: وجود ناهماهنگی در صافی صورت یا چین‌وچروک‌های اطراف پیشانی و گونه‌ها یا خال‌های صورت نشان دیگری برای تشخیص فیک بودن ویدیو است.

۴– نورپردازی: اگر نورپردازی ناسازگار است و سایه‌ها حرکاتی غیرعادی دارند، ممکن است ویدیو فیک باشد. درعین‌حال به چشم‌ها، ابروها و عینک افراد توجه کنید.

۵– مو: آیا موها حالت عجیبی دارند تا به شیوه غیر نرمالی حرکت می‌کنند.

۶– پلک زدن: پلک زدن زیاد یا کم می‌تواند نشانه‌ای از دیپ فیک باشد.

دسته جدیدتری از دیپ‌فیک‌های ویدیویی مبتنی بر مدل‌های diffusion هستند که می‌توانند ویدیوهایی را براساس پیام‌های متنی توسط هوش مصنوعی ایجاد کنند و شرکت‌ها در حال آزمایش و انتشار نسخه‌هایی هستند که هرکسی می‌تواند بدون دانش فنی خاصی این کار را انجام دهد ولی تا امروز در ویدئوهای به‌دست‌آمده، چهره‌ها مخدوش یا حرکات بدن عجیب هستند.

«تشخیص ویدیوهای تولیدی با هوش مصنوعی، برای مردم آسان‌تر از عکس‌های فیک است؛ چراکه درحرکت، فرصت تشخیص حرکات غیرطبیعی بیشتر خواهد بود.»

نحوه شناسایی ربات‌های هوش مصنوعی

این روزها استفاده از ربات‌های کامپیوتری در حساب‌های رسانه‌های اجتماعی و پلتفرم‌های پیام‌رسان رایج شده و بسیاری از این ربات‌ها از فناوری‌های هوش مصنوعی بهره می‌برند. از این طریق تولید محتوا با هوش مصنوعی از طریق ربات‌هایی که برای موقعیت‌های مختلف سفارشی ساخته می‌شوند، بسیار ارزان و آسان خواهد بود.

پل برنر از دانشگاه نوتردام دراین‌باره گفت: «سفارشی کردن مدل‌های زبان بزرگ برای مخاطبان خاص، با پیام‌های خاص آسان‌تر شده است.» او و همکارانش در تحقیقاتشان دریافتند که داوطلبان تنها در ۴۲% مواقع ربات‌های مجهز به هوش مصنوعی را از انسان تشخیص می‌دهند؛ آن‌هم درحالی‌که به شرکت‌کنندگان گفته‌شده بود که با ربات‌ها تعامل دارند.

پنج روش برای تشخیص ربات هوش مصنوعی در رسانه‌های اجتماعی

۱- استفاده زیاد از ایموجی‌ها و هشتگ‌ها

۲- استفاده از عبارات غیرمتداول، انتخاب کلمات یا تشبیهات

۳- استفاده از عبارات تکراری با اشکال مشابه یا سفت‌وسخت؛ یا استفاده بیش‌ازحد از برخی اصطلاحات عامیانه

۴- عدم آگاهی کامل: یعنی با پرسیدن چند سؤال، به‌ویژه درباره مکان یا موقعیت‌های محلی، می‌توانید متوجه عدم آگاهی یک ربات از یک موضوع آشکار شوید

۵- اگر یک حساب رسانه اجتماعی، یک مخاطب شخصی نیست و هویتش به‌وضوح تأیید نشده، ممکن است یک ربات هوش مصنوعی باشد.

تشخیص دیپ فیک گفتاری

ابزارهای هوش‌مصنوعی، شبیه‌سازی صدا یا تولید صدای گفتاری جدید را آسان کرده و همین منجر به افزایش کلاه‌برداری‌های صوتی شده است که صدای اعضای خانواده، مدیران شرکت و رهبران سیاسی حتی جو بایدن را شبیه‌سازی می‌کند. شناسایی این موارد در مقایسه با ویدیوها یا تصاویر تولیدشده با هوش مصنوعی بسیار سخت‌تر است.

ریچل توباک، یکی از بنیان‌گذاران SocialProof Security(یک سازمان هک کلاه‌سفید) دراین‌باره گفته: «متمایز کردن صدای واقعی و شبیه‌سازی‌شده، واقعاً چالش‌برانگیز است، زیرا اجزای بصری خاصی برای حمایت از مغز ما در شناسایی در این زمینه وجود ندارد.»

پیشرفت روزافزون فناوری

طبق آنچه گفته شد، هیچ قانون منسجمی برای تشخیص محتوای تولیدشده توسط هوش مصنوعی با محتوای واقعی انسانی وجود ندارد. مدل‌های هوش مصنوعی مورداستفاده برای تولید متن، تصویر، ویدئو و صدا، دائماً در حال پیشرفت هستند و به‌سرعت محتواهایی معتبر و بدون هیچ‌گونه اشتباهات آشکاری تولید کنند.

توباک دراین‌باره گفت: «هوش مصنوعی عکس‌ها، ویدیوها و صداها را به‌سرعت و درزمانی کمتر از ۳۰ ثانیه دست‌کاری و تولید می‌کند. همین کار را برای افرادی که به دنبال فریب دادن مردم هستند راحت می‌کند تا خیلی سریع اطلاعات نادرست را توسط هوش مصنوعی تولید کرده و چند دقیقه بعد آن‌ها را در شبکه‌های اجتماعی به اشتراک بگذارند.»

از همین رو بسیار مهم است که اطلاعات نادرست تولیدشده توسط هوش مصنوعی را بررسی کنید که سؤالات بیشتری بپرسید؛ درنهایت این اقدامات هم برای جلوگیری از آسیب کافی نخواهد بود و به‌طورقطع موارد جعلی تشخیص داده نخواهد شد.

khabaronline.ir/xmG7y

برچسب ها: دیپ فیکرباترسانه های اجتماعیهوش مصنوعی
قبلی آشفتگی رسانه‌ای به نام شبکه‌های اجتماعی
بعدی تفاوت اینترنت فیبر نوری و اینترنت بی‌سیم ۵G

پست های مرتبط

21 خرداد 1404

آزار و اذیت سایبری 

ادامه مطلب

21 خرداد 1404

سندروم فضای مجازی و راهکارهای پیشگیری

ادامه مطلب

21 خرداد 1404

چگونه سوگیری یا تعصب در اخبار را به فرزندانم آموزش دهم؟

ادامه مطلب

21 خرداد 1404

فضای مجازی وآسیب های آن

ادامه مطلب

8 اسفند 1403

خطر ایجاد اختلال محاسباتی در مدیران؛ گزارش سازی و پاورپوینت سازی با محتوای غلط و اغواکننده

ادامه مطلب

دیدگاهتان را بنویسید لغو پاسخ

جستجو برای:
پشتیبانی

میتوانید از قسمت تماس با ما با کارشناس های ما در ارتباط باشید

دسته‌ها
  • آکادمی ها
  • اخبار روز
  • پادکست صوتی
  • تبلیغات
  • دقیق تر بدانیم
  • زندگی دانشگاهی
  • طراحی
  • عمومی
  • فریلنسر
  • کسب و کار
  • کسب و کار
  • مدرسه
  • معرفی ابزار
  • معرفی کتاب
  • مقالات آموزشی
  • هوش مصنوعی
  • ویدئو
  • ویدیو آموزشی
  • یاد بگیریم
  • یادداشت
برچسب‌ها
AI twitter whatsapp آسیب آموزش آموزشی اخبار اخبار جعلی اطلاعات امنیت سایبری اینترنت اینستاگرام بازی رایانه ای تبلیغات تلفن همراه تلگرام توییتر تیک تاک جنگ رسانه ای جنگ شناختی جنگ نرم حملات سایبری خطرات مجازی دوره رسانه رسانه اجتماعی رسانه های اجتماعی سبک زندگی سواد رسانه سواد رسانه ای شبکه های اجتماعی عصر دیجیتال عملیات روانی فضای مجازی فناوری فیلترینگ قالب محتوا هوش مصنوعی وردپرس پیامک کتاب کسب و کار گوشی هوشمند گوگل
دسترسی سریع
  • پیگیری سفارش
  • وبلاگ
  • درباره ما
  • تماس با ما
ما را در شبکه های اجتماعی دنبال کنید
Telegram-svgrepo-com
© 1404. نهضت سواد رسانه ای انقلاب اسلامی استان فارس سواد رسانه ای

طراحی وب

  • 4 دوره

عمومی

  • 67 دوره

کتاب

  • 5 محصول

آکادمی ها

  • 2 نوشته

اخبار روز

  • 73 نوشته

پادکست صوتی

  • 3 نوشته

تبلیغات

  • 1 نوشته

دقیق تر بدانیم

  • 80 نوشته
برای مشاهده خریدهای خود باید وارد حساب کاربری خود شوید
Facebook Twitter Youtube Instagram Whatsapp