جستجو برای:
سبد خرید 0
  • خانه
  • وبلاگ
  • رویدادها
  • محصولات
  • تماس با ما
    • شیراز
      09933267966
      savadrasaneh.info@gmail.com
      اینستاگرام
      کانال تلگرام
  • درباره ما
ورود
[suncode_otp_login_form]
گذرواژه خود را فراموش کرده اید؟
عضویت
[suncode_otp_registration_form]

داده های شخصی شما برای پشتیبانی از تجربه شما در این وب سایت، برای مدیریت دسترسی به حساب کاربری شما و برای اهداف دیگری که در سیاست حفظ حریم خصوصی ما شرح داده می شود مورد استفاده قرار می گیرد.

سواد رسانه
  • خانه
  • وبلاگ
  • رویدادها
  • محصولات
  • تماس با ما
    • شیراز
      09933267966
      savadrasaneh.info@gmail.com
      اینستاگرام
      کانال تلگرام
  • درباره ما
شروع کنید
0

وبلاگ

سواد رسانه > اخبار > دقیق تر بدانیم > هوش مصنوعی روزی آگاهانه خرابکاری می‌کند

هوش مصنوعی روزی آگاهانه خرابکاری می‌کند

30 مهر 1403
ارسال شده توسط
دقیق تر بدانیم

شرکت توسعه هوش مصنوعی آنتروپیک (Anthropic) می‌گوید هوش مصنوعی روزی می‌تواند بشریت را با کارشکنی و خرابکاری مواجه کند، اما فعلاً همه چیز خوب پیش می‌رود.

شرکت آنتروپیک که توسعه دهنده هوش مصنوعی است، به تازگی تحقیقات جدیدی را منتشر کرده است که در آن مجموعه‌ای از تهدیدات بالقوه خرابکارانه برای بشریت ناشی از مدل‌های پیشرفته هوش مصنوعی را شناسایی می‌کند.

به گفته این شرکت، این پژوهش بر چهار روش خاص متمرکز شده است که یک مدل هوش مصنوعی مخرب می‌تواند انسان را فریب دهد تا تصمیمی خطرناک یا مضر بگیرد.

در نهایت، این تحقیقات جدید یک خبر خوب یک خبر بد برای ما دارد. خبر بد اینکه طبق تحقیقات این شرکت، مدل‌های زبان بزرگ پیشرفته مانند ChatGPT و Claude-۳ ظرفیت روشنی برای خرابکاری نشان می‌دهند.

در این مطالعه آمده است: مدل‌های به اندازه کافی توانمند می‌توانند نظارت و تصمیم‌گیری انسانی را در زمینه‌های مهم زیر سوال ببرند. به عنوان مثال، در زمینه توسعه هوش مصنوعی، مدل‌ها می‌توانند به طور پنهانی تلاش‌ها برای ارزیابی قابلیت‌های خطرناک خود، نظارت بر رفتار آنها یا تصمیم‌گیری در مورد استقرارشان را مختل کنند.

با این حال، خبر خوب این است که محققان شرکت آنتروپیک مطمئن هستند که این خطرات را حداقل در حال حاضر می‌توان کاهش داد.

آنتروپیک چهار راه را که یک مدل هوش مصنوعی می‌تواند با آنها تصمیم‌گیری انسان را مختل کند، شناسایی کرد و سپس مدل‌های خود را آزمایش کرد تا ببیند آیا موفقیت آمیز عمل خواهند کرد یا خیر.

محققان ابتدا یک مدل را وادار کردند تا با هدایت انسان به سمت اطلاعات نادرست، اقدام به خرابکاری کند. این تهدید می‌تواند در شرایطی پدیدار شود که انسان‌ها برای تجزیه حجم عظیمی از داده‌ها از جانب خود به یک سیستم هوش مصنوعی متکی هستند.

سپس این تیم مدل‌ها را آزمایش کرد تا ببیند سامانه هوش مصنوعی طراحی شده برای کمک به توسعه‌دهندگان انسانی برای ایجاد کدی برای وارد کردن مخفیانه اشکالات یا خراب کردن تلاش‌های کدگذار، چقدر آسان عمل می‌کند.

دو تهدید آخر شامل «پنهان کردن توانایی‌ها» (sandbagging) بود که اصطلاحی است که سناریویی را توصیف می‌کند که در آن یک هوش مصنوعی وانمود می‌کند که قادر به انجام کاری نیست تا آزمایش‌کنندگان ایمنی را متقاعد کند که خطرناک نیست.

در حالی که همه اینها ممکن است به طور بالقوه خطرناک به نظر برسند، آنتروپیک به مردم اطمینان داد که برای محافظت از بشریت در برابر احتمال خرابکاری هوش مصنوعی به اقدامات پیش‌گیرنده اندکی نیاز است.

طبق اعلام این شرکت؛ به طور کلی در حالی که آزمایشات ما نشان داد که احتمالاً نشانه‌های سطح پایینی از توانایی‌های خرابکاری در مدل‌های فعلی وجود دارد، ما می‌گوییم که حداقل اقدامات پیش‌گیرنده برای مقابله با خطرات کافی است. با این حال، با بهبود قابلیت‌های هوش مصنوعی، ارزیابی‌های واقعی‌تر و پیش‌گیری‌های قوی‌تر احتمالاً ضروری خواهند بود.

منبع: خبرگزاری ایسنا

برچسب ها: آنتروپیکفناوری نوینکدگذاریهوش مصنوعی
قبلی استفاده از رسانه‌های اجتماعی باعث افزایش اضطراب نوجوانان می‌شود
بعدی تاثیر دنبال کردن بلاگرها در زندگی شخصی زنان

پست های مرتبط

21 خرداد 1404

عوارض و چالش‌های هوش مصنوعی برای دانش‌آموزان و دانشجویان

ادامه مطلب

8 اسفند 1403

چگونگی محافظت از خود در برابر حملات سایبری هوش مصنوعی

ادامه مطلب

8 اسفند 1403

نیمه تاریک اینستاگرام؛ در پشت پرده پیج‌های کودک‌اینفلوئنسر چه می‌گذرد؟

ادامه مطلب

8 اسفند 1403

چگونه مصرف اینترنت را در گوشی هوشمند مدیریت کنیم؟

ادامه مطلب

30 بهمن 1403

ده سال دیگر یک‌پنجم نیروی کار را «نسل بتا» تأمین می‌کند

ادامه مطلب

دیدگاهتان را بنویسید لغو پاسخ

جستجو برای:
پشتیبانی

میتوانید از قسمت تماس با ما با کارشناس های ما در ارتباط باشید

دسته‌ها
  • آکادمی ها
  • اخبار روز
  • پادکست صوتی
  • تبلیغات
  • دقیق تر بدانیم
  • زندگی دانشگاهی
  • طراحی
  • عمومی
  • فریلنسر
  • کسب و کار
  • کسب و کار
  • مدرسه
  • معرفی ابزار
  • معرفی کتاب
  • مقالات آموزشی
  • هوش مصنوعی
  • ویدئو
  • ویدیو آموزشی
  • یاد بگیریم
  • یادداشت
برچسب‌ها
AI twitter whatsapp آسیب آموزش آموزشی اخبار اخبار جعلی اطلاعات امنیت سایبری اینترنت اینستاگرام بازی رایانه ای تبلیغات تلفن همراه تلگرام توییتر تیک تاک جنگ رسانه ای جنگ شناختی جنگ نرم حملات سایبری خطرات مجازی دوره رسانه رسانه اجتماعی رسانه های اجتماعی سبک زندگی سواد رسانه سواد رسانه ای شبکه های اجتماعی عصر دیجیتال عملیات روانی فضای مجازی فناوری فیلترینگ قالب محتوا هوش مصنوعی وردپرس پیامک کتاب کسب و کار گوشی هوشمند گوگل
دسترسی سریع
  • پیگیری سفارش
  • وبلاگ
  • درباره ما
  • تماس با ما
ما را در شبکه های اجتماعی دنبال کنید
Telegram-svgrepo-com
© 1404. نهضت سواد رسانه ای انقلاب اسلامی استان فارس سواد رسانه ای

طراحی وب

  • 4 دوره

عمومی

  • 67 دوره

کتاب

  • 5 محصول

آکادمی ها

  • 2 نوشته

اخبار روز

  • 73 نوشته

پادکست صوتی

  • 3 نوشته

تبلیغات

  • 1 نوشته

دقیق تر بدانیم

  • 80 نوشته
برای مشاهده خریدهای خود باید وارد حساب کاربری خود شوید
Facebook Twitter Youtube Instagram Whatsapp