تحقیقات نشان میدهد که میتوانیم از هوش مصنوعی برای کمک به امنتر کردن فضاهای آنلاین بدون نیاز به قربانی کردن ارزشهایی مانند شفافیت و کنترل کاربر استفاده کنیم.
تصور کنید در شبکههای اجتماعی گشت و گذار میکنید یا یک بازی آنلاین انجام میدهید، اما با نظرات توهین آمیز و آزار دهنده متوقف میشوید. چه میشود اگر یک ابزار هوش مصنوعی (AI) پیش از اینکه حتی آن را ببینید، برای حذف این محتوا وارد عمل شود؟
این داستان علمی تخیلی نیست. ابزارهای هوش مصنوعی تجاری مانند توکس مد (ToxMod) و بادی گاردای آی (Bodyguard.ai) در حال حاضر برای نظارت بر تعاملات در زمان واقعی در رسانههای اجتماعی و پلتفرمهای بازی استفاده میشوند. آنها میتوانند رفتار سمی را تشخیص دهند و به آن پاسخ دهند. ایده نظارت همه جانبه هوش مصنوعی بر هر حرکت ما ممکن است منطقی به نظر برسد، اما این ابزارها میتوانند کلید تبدیل اینترنت به مکانی امنتر باشند.
با این حال، برای موفقیت هوش مصنوعی، باید ارزشهایی مانند حریم خصوصی، شفافیت، قابلیت توضیح و انصاف را در اولویت قرار دهد؛ بنابراین آیا میتوانیم اطمینان حاصل کنیم که هوش مصنوعی میتواند برای بهتر کردن فضاهای آنلاین ما مورد اعتماد باشد؟ دو پروژه تحقیقاتی اخیر در زمینه تعدیل مبتنی بر هوش مصنوعی نشان میدهد که این کار را میتوان با کار بیشتر انجام داد.
منفی نگری به صورت آنلاین رشد میکند
مسمومیت آنلاین یک مشکل رو به رشد است. نزدیک به نیمی از جوانان نوعی تعامل آنلاین منفی را تجربه کرده اند و تقریبا یک نفر از هر پنج نفر آنها زورگویی سایبری را تجربه کرده است.
چه یک اظهار نظر توهین آمیز باشد و چه یک آزار و اذیت مداوم، چنین تعاملات مضری به بخشی از زندگی روزمره بسیاری از کاربران اینترنت بدل شده است.
شدت مسمومیت آنلاین یکی از دلایلی است که دولت استرالیا پیشنهاد داده است رسانههای اجتماعی برای کودکان زیر ۱۴ سال ممنوع شود.
اما طراحی پلتفرمهای آنلاین و ابزارهای تعدیل نمیتواند به طور کامل به این مشکل اساسی اصلی بپردازد. از این رو باید برای به حداقل رساندن تعاملات مضر برای همه کاربران، نه فقط کودکان در پلتفرمهای آنلاین تجدیدنظر کنیم.
متاسفانه، بسیاری از غولهای فناوری که بر فعالیتهای آنلاین کاربران تسلط دارند، در پذیرش مسئولیتهای بیشتر کند عمل کرده اند و شکافهای قابل توجهی در معیارهای اعتدال و ایمنی ایجاد کرده اند.
اینجاست که تعدیل هوش مصنوعی فعال فرصت ایجاد فضاهای آنلاین امنتر و محترمانهتر را فراهم میکند. اما آیا هوش مصنوعی واقعا میتواند به این وعده عمل کند؟
همه ما میتوانیم نقش ایفا کنیم
تحقیقات نشان میدهد که میتوانیم از هوش مصنوعی برای کمک به امنتر کردن فضاهای آنلاین بدون نیاز به قربانی کردن ارزشهایی مانند شفافیت و کنترل کاربر استفاده کنیم. اما باید اقدامات بیشتری انجام شود.
تا زمانی که شیوههای اخلاقی هوش مصنوعی به طور گسترده پذیرفته نشوند، کاربران باید مطلع بمانند. قبل از پیوستن به یک پلتفرم، بررسی کنید که آیا آنها در مورد سیاستهای خود شفاف هستند یا خیر و کنترل کاربر را بر تنظیمات اعتدال ارائه دهید.
اینترنت ما را به منابع، کار، بازی و جامعه متصل میکند. هر کسی حق دارد بدون آزار و اذیت و سواستفاده به این مزایا دسترسی داشته باشد. این به همه ما بستگی دارد که فعال باشیم و از فناوری هوشمندتر و اخلاقیتر که از ارزشها و فضاهای دیجیتال ما محافظت میکند، حمایت کنیم.