با افزایش نقش الگوریتم‌ها در زندگی ما، مشکلات جدیدی از سوی آن‌ها به وجود می‌آید.

بهره‌گیری از هوش مصنوعی در زندگی امروزی ما محدود به نقاشی کشیدن با بینگ یا گفتگو با چت‌جی‌پی‌تی نیست. الگوریتم‌های هوش مصنوعی بیش از پیش در تصمیم‌گیری‌های دولت‌ها نقش ایفا می‌کنند و تحلیل‌ها و برآورد‌های آن‌ها مورد استناد نهاد‌های عمومی قرار می‌گیرد. با این حال کمتر درباره ضرورت بازاندیشی در خصوص کاربرد الگوریتم‌ها در سیستم‌های دولتی و اثرات منفی آن‌ها سخن گفته می‌شود.

وب‌سایت Lawfare در مقاله‌ای به بررسی تجربه استفاده از الگوریتم‌های هوش مصنوعی در دولت‌های غربی پرداخته است.

ماجرا‌ها و حاشیه‌هایی که در مدت اخیر برای شرکت اوپن‌ای‌آی (OpenAI) پیش آمد، بحث‌ها را در مورد نحوه حکمرانی هوش مصنوعی تشدید کرده است. تنها چند هفته قبل از اخراج سم آلتمن و سپس استخدام مجدد به عنوان مدیرعامل این شرکت، کاخ سفید استاندارد‌های ایمنی جدیدی را برای توسعه‌دهندگان هوش مصنوعی مولد، که فناوری پایه برای ChatGPT محسوب می‌شود، اعلام کرده بود.

همچنین موضوع خطرات هوش مصنوعی مولد، محور اولین نشست سطح بالایی بود که در بریتانیا و در مورد ایمنی هوش مصنوعی برگزار شد. همچنین اختلاف نظر‌ها در مورد محدودیت‌هایی که باید روی این فناوری اعمال شود باعث شد مقررات‌گذاری اتحادیه اروپا در این حوزه که که از مدت‌ها قبل در کانون توجهات قرار داشت، تا حد زیادی از مسیر خود خارج شود.

این دغدغه‌ها درباره هوش مصنوعی، اَشکال دیگر تصمیم‌گیری الگوریتمی را که در حال حاضر عمیقاً در جامعه جا افتاده‌اند و به آن‌ها عادت کرده‌ایم و همچنین درس‌هایی که در مورد تنظیم‌گری فناوری‌های نوظهور ارائه می‌دهند را تحت‌الشعاع قرار می‌دهد.

برخی از الگوریتم‌هایی که کمترین توجه را به خود جلب می‌کنند، می‌توانند بیشترین آسیب را وارد کنند -برای مثال، الگوریتم‌هایی که به جزئی از ساختار خدمات دولتی تبدیل شده‌اند و تعیین می‌کنند که آیا افراد توانایی پرداخت هزینه‌های غذا، مسکن و مراقبت‌های بهداشتی را دارند یا خیر.

این سیستم که به عنوان اعتبار همگانی (Universal Credit) شناخته می‌شود، در سال ۲۰۱۳ به منظور بهبود کارایی اداری و صرفه‌جویی در هزینه‌ها راه‌اندازی شد و در آن محاسبه مزایا به صورت خودکار انجام می‌شد.

هزینه‌های هنگفت اجرای سیستم اعتبار همگانی تردید‌هایی را در مورد وعده دولت برای صرفه‌جویی در هزینه‌ها ایجاد کرده است. همچنین این سیستم که تا حد زیادی خودکار عمل می‌کند، روند درخواست مزایا و درخواست‌های بازنگری در محاسبات را برای افرادی که در حال حاضر با فقر دست و پنجه نرم می‌کنند، غیر قابل انعطاف و دشوارتر می‌کند.

گروه‌های جامعه مدنی در بریتانیا و همچنین دیده‌بان حقوق بشر دریافته‌اند که این سیستم بر یک الگوریتم «آزمون وسع» (means-test) متکی است که ثابت شده احتمال محاسبه نادرست درآمد افراد و کم برآورد کردن میزان کمک‌های مالی مورد نیاز آن‌ها را دارد.

خانواده‌هایی که آسیب‌های ناشی از طراحی معیوب این الگوریتم را تحمل می‌کنند، گرسنه می‌مانند، از پرداخت اجاره خانه عقب می‌افتند و گرفتار بدهی می‌شوند. با این حال، اگرچه ریشی سوناک قول داده است که دولتش برای تنظیم‌گری هوش مصنوعی عجله نخواهد کرد، اما به نظر می‌رسد که خسارات وارد شده به مردم از طریق این سیستم چندان مورد توجه سوناک نیست.

سوناک از هوش مصنوعی به عنوان «راه‌حلی» برای مشکل «مقابله با کلاهبرداران منفعت‌طلب» که قصد سوءاستفاده از مزایای دولتی را دارند، یاد کرده است. در سراسر قاره اروپا رو به استفاده از سامانه‌های هوش مصنوعی برای تشخیص کلاهبرداری مردم از دولت‌ها آورده‌اند. این تصمیمات بیشتر ناشی از تلاش برای کاهش هزینه‌های دولت‌ها و همچنین برخی اظهار نظر‌های سیاسی هستند که بیان می‌کنند میزان کلاهبرداری‌ها از دولت کاملاً از کنترل خارج شده است.

این سیستم‌ها از حجم‌های عظیمی از داده‌های حساس و شخصی برای تشخیص نشانه‌هایی از کلاهبرداری توسط مردم استفاده می‌کنند؛ اطلاعاتی همچون قومیت، زبان، سوابق شغلی و خانوادگی، سوابق مسکن، سوابق بدهی و حتی سوابق روابط عاطفی.

با این حال این ماشین‌های نظارتی نتوانسته‌اند نتایج مطلوب دولت‌ها را به دست آورند. گزارش‌های به دست آمده از سامانه تشخیص کلاهبرداری سیستم رفاهی دانمارک تنها ۱۳ درصد از کل پرونده‌هایی را تشکیل می‌دهد که مقامات این کشور در نهایت مورد بازرسی قرار می‌دهند. در اسپانیا الگوریتمی که صحت تقاضا‌های افراد برای مرخصی‌های استعلاجی و دریافت مزایای رفاهی را بررسی می‌کند نرخ خطای بالایی دارد، به شکلی که این سوال برای بازرسان دولتی به وجود آمده است که آیا اساساً نیازی به چنین سامانه‌ای وجود دارد یا خیر.

نکته مهم‌تر این است که این فناوری‌ها افراد را به دلیل کلیشه‌های موجود درباره فقر یا سایر مشخصات محدودکننده از دریافت خدمات حمایت اساسی باز می‌دارد. طبق یک بررسی که اخیراً از سوی نشریه لو موند در فرانسه انجام شده است مشخص شده الگوریتمی که سازمان تامین اجتماعی این کشور از آن برای تشخیص ریسک استفاده می‌کند، گروه‌های آسیب‌پذیرتر از نظر مالی را بیشتر از دیگران برای بازرسی شدن پیشنهاد می‌دهد.

در سال ۲۰۲۱ پس از افشای خبر اتهام اشتباهی مقامات هلندی به هزاران نفر از مردم این کشور در زمینه کلاهبرداری‌های رفاهی، دولت هلند مجبور استعفا شد. مقامات امور مالیاتی این کشور ۲۶ هزار نفر را متهم کرده بودند که برای دریافت مزایای فرزندآوری کلاهبرداری کرده‌اند. مشخص شد که علت این حادثه وجود خطا در الگوریتم‌های مورد استفاده بود که به شکل غیرواقعی خطر کلاهبرداری خانوار‌های کم‌درآمد و اقلیت‌های قومیتی بالاتر برآورد می‌کرد.

سیاست‌گذاران اتحادیه اروپا در ۸ دسامبر ۲۰۲۳ برای تصویب قانون هوش مصنوعی به توافق رسیدند، اما امانوئل ماکرون رئیس جمهور فرانسه ابراز نگرانی کرده است که این مقررات می‌تواند مانع از نوآوری شود.
حتی اگر این اتفاق رخ بدهد و کار جلو برود، تردید وجود دارد که این مقررات، تدابیر معناداری را در برابر سیستم‌های تبعیض‌آمیز تشخیص کلاهبرداری اعمال کند، چه رسد به اینکه از گسترش آن‌ها جلوگیری کند و همچنان می‌توانند مردم را از حمایت‌های اساسی محروم کرده و علیه گروه‌های آسیب‌پذیر تبعیض قائل شوند.

در ایالات متحده نیز وابسته شدن زندگی مردم به هوش مصنوعی و عدم وجود قانون‌گذاری صحیح در این حوزه، خیلی از اقدامات مورد نیاز را متوقف کرده و می‌کند.

یکی از برنامه‌های مبتنی بر هوش مصنوعی به نام Medicaid که در ایالت‌های مختلف این کشور مورد استفاده قرار می‌گیرد، ایرادات اساسی زیادی داشته و استفاده از آن منجر به کاهش ساعات مراقبتی افراد مسن و دارای معلولیت در منزل شده است.

این الگوریتم به طور خودسرانه و غلط، ساعات مراقبت در منزل را که به بسیاری از افراد مسن و افراد دارای معلولیت اختصاص داده شده بود، کاهش داد و آن‌ها را مجبور کرد که از وعده‌های غذایی، حمام و سایر کار‌های اساسی که به کمک نیاز دارند صرف نظر کنند.

کنگره لوایح زیادی را برای تنظیم این فناوری‌ها پیشنهاد کرده است، اما مشخص‌ترین اقدام تاکنون از سوی کاخ سفید انجام شده است.

دستور اجرایی اخیر کاخ سفید، به توسعه‌دهندگان هوش مصنوعی مولد دستور می‌دهد تا نتایج تست ایمنی را ارائه کنند و سازمان‌های فدرال را ملزم می‌کند در مورد نحوه استفاده از هوش مصنوعی دستورالعمل‌هایی تدوین و ارائه کنند.

به‌ویژه آژانس‌های فدرال که ناظر بر برنامه‌های Medicaid، کمک‌های غذایی و از این دست برنامه‌ها هستند ملزم به تهیه راهنمایی در مورد خودکارسازی این برنامه‌ها به شیوه‌ای هستند که شفافیت، روند مناسب و «نتایج عادلانه» را تضمین کند.

با این حال آنچه این دستور در نظر نمی‌گیرد، اعمال خطوط قرمز علیه کاربرد‌های فناوری است که به نظر می‌رسد مستعد سوءاستفاده باشد، مانند تکنولوژی تشخیص چهره.

همچنین دستورات اجرایی جایگزین قانون‌گذاری نمی‌شوند و این یعنی فقط کنگره می‌تواند به مقامات فدرال اختیارات و بودجه جدید برای تنظیم‌گری صنعت فناوری را اعطا کند و تنها کنگره می‌تواند محدودیت‌های جدیدی را در مورد نحوه هزینه‌کرد ایالت‌ها برای سیستم‌های هوش مصنوعی اعمال کند.

آسیب هوش مصنوعی به خدمات عمومی، نقشه راه را در مورد شیوه‌ی مقررات‌گذاری معنادار این فناوری ارائه می‌دهد. شاید مهم‌ترین درسی که باید بگیریم این است که بعضی حوزه‌ها ممنوعه شوند؛ برای مثال ممنوعیت برخی کاربری‌های هوش مصنوعی که خطری غیرقابل قبول برای حقوق مردم ایجاد می‌کند. البته این ممنوعیت‌ها همچنین زمانی باید در نظر گرفته شوند که خطرات ناشی از هوش مصنوعی به اندازه کافی از طریق بررسی دقیق، نظارت انسانی و سایر اقدامات حفاظتی قابل کاهش نباشد.

سیاست‌گذاران نباید اجازه دهند تبلیغات در مورد هوش مصنوعی مولد یا حدس و گمان در مورد خطرات وجودی آن، آن‌ها را از وظیفه فوری رسیدگی به آسیب‌های سیستم‌های هوش مصنوعی که در حال حاضر در میان ما هستند، منحرف کند. عدم توجه به درس‌های گذشته و حال هوش مصنوعی ما را محکوم به تکرار همان اشتباهات می‌کند.

https://gerdab.ir/0009mh