با افزایش نقش الگوریتمها در زندگی ما، مشکلات جدیدی از سوی آنها به وجود میآید.
بهرهگیری از هوش مصنوعی در زندگی امروزی ما محدود به نقاشی کشیدن با بینگ یا گفتگو با چتجیپیتی نیست. الگوریتمهای هوش مصنوعی بیش از پیش در تصمیمگیریهای دولتها نقش ایفا میکنند و تحلیلها و برآوردهای آنها مورد استناد نهادهای عمومی قرار میگیرد. با این حال کمتر درباره ضرورت بازاندیشی در خصوص کاربرد الگوریتمها در سیستمهای دولتی و اثرات منفی آنها سخن گفته میشود.
وبسایت Lawfare در مقالهای به بررسی تجربه استفاده از الگوریتمهای هوش مصنوعی در دولتهای غربی پرداخته است.
ماجراها و حاشیههایی که در مدت اخیر برای شرکت اوپنایآی (OpenAI) پیش آمد، بحثها را در مورد نحوه حکمرانی هوش مصنوعی تشدید کرده است. تنها چند هفته قبل از اخراج سم آلتمن و سپس استخدام مجدد به عنوان مدیرعامل این شرکت، کاخ سفید استانداردهای ایمنی جدیدی را برای توسعهدهندگان هوش مصنوعی مولد، که فناوری پایه برای ChatGPT محسوب میشود، اعلام کرده بود.
همچنین موضوع خطرات هوش مصنوعی مولد، محور اولین نشست سطح بالایی بود که در بریتانیا و در مورد ایمنی هوش مصنوعی برگزار شد. همچنین اختلاف نظرها در مورد محدودیتهایی که باید روی این فناوری اعمال شود باعث شد مقرراتگذاری اتحادیه اروپا در این حوزه که که از مدتها قبل در کانون توجهات قرار داشت، تا حد زیادی از مسیر خود خارج شود.
این دغدغهها درباره هوش مصنوعی، اَشکال دیگر تصمیمگیری الگوریتمی را که در حال حاضر عمیقاً در جامعه جا افتادهاند و به آنها عادت کردهایم و همچنین درسهایی که در مورد تنظیمگری فناوریهای نوظهور ارائه میدهند را تحتالشعاع قرار میدهد.
برخی از الگوریتمهایی که کمترین توجه را به خود جلب میکنند، میتوانند بیشترین آسیب را وارد کنند -برای مثال، الگوریتمهایی که به جزئی از ساختار خدمات دولتی تبدیل شدهاند و تعیین میکنند که آیا افراد توانایی پرداخت هزینههای غذا، مسکن و مراقبتهای بهداشتی را دارند یا خیر.
این سیستم که به عنوان اعتبار همگانی (Universal Credit) شناخته میشود، در سال ۲۰۱۳ به منظور بهبود کارایی اداری و صرفهجویی در هزینهها راهاندازی شد و در آن محاسبه مزایا به صورت خودکار انجام میشد.
هزینههای هنگفت اجرای سیستم اعتبار همگانی تردیدهایی را در مورد وعده دولت برای صرفهجویی در هزینهها ایجاد کرده است. همچنین این سیستم که تا حد زیادی خودکار عمل میکند، روند درخواست مزایا و درخواستهای بازنگری در محاسبات را برای افرادی که در حال حاضر با فقر دست و پنجه نرم میکنند، غیر قابل انعطاف و دشوارتر میکند.
گروههای جامعه مدنی در بریتانیا و همچنین دیدهبان حقوق بشر دریافتهاند که این سیستم بر یک الگوریتم «آزمون وسع» (means-test) متکی است که ثابت شده احتمال محاسبه نادرست درآمد افراد و کم برآورد کردن میزان کمکهای مالی مورد نیاز آنها را دارد.
خانوادههایی که آسیبهای ناشی از طراحی معیوب این الگوریتم را تحمل میکنند، گرسنه میمانند، از پرداخت اجاره خانه عقب میافتند و گرفتار بدهی میشوند. با این حال، اگرچه ریشی سوناک قول داده است که دولتش برای تنظیمگری هوش مصنوعی عجله نخواهد کرد، اما به نظر میرسد که خسارات وارد شده به مردم از طریق این سیستم چندان مورد توجه سوناک نیست.
سوناک از هوش مصنوعی به عنوان «راهحلی» برای مشکل «مقابله با کلاهبرداران منفعتطلب» که قصد سوءاستفاده از مزایای دولتی را دارند، یاد کرده است. در سراسر قاره اروپا رو به استفاده از سامانههای هوش مصنوعی برای تشخیص کلاهبرداری مردم از دولتها آوردهاند. این تصمیمات بیشتر ناشی از تلاش برای کاهش هزینههای دولتها و همچنین برخی اظهار نظرهای سیاسی هستند که بیان میکنند میزان کلاهبرداریها از دولت کاملاً از کنترل خارج شده است.
این سیستمها از حجمهای عظیمی از دادههای حساس و شخصی برای تشخیص نشانههایی از کلاهبرداری توسط مردم استفاده میکنند؛ اطلاعاتی همچون قومیت، زبان، سوابق شغلی و خانوادگی، سوابق مسکن، سوابق بدهی و حتی سوابق روابط عاطفی.
با این حال این ماشینهای نظارتی نتوانستهاند نتایج مطلوب دولتها را به دست آورند. گزارشهای به دست آمده از سامانه تشخیص کلاهبرداری سیستم رفاهی دانمارک تنها ۱۳ درصد از کل پروندههایی را تشکیل میدهد که مقامات این کشور در نهایت مورد بازرسی قرار میدهند. در اسپانیا الگوریتمی که صحت تقاضاهای افراد برای مرخصیهای استعلاجی و دریافت مزایای رفاهی را بررسی میکند نرخ خطای بالایی دارد، به شکلی که این سوال برای بازرسان دولتی به وجود آمده است که آیا اساساً نیازی به چنین سامانهای وجود دارد یا خیر.
نکته مهمتر این است که این فناوریها افراد را به دلیل کلیشههای موجود درباره فقر یا سایر مشخصات محدودکننده از دریافت خدمات حمایت اساسی باز میدارد. طبق یک بررسی که اخیراً از سوی نشریه لو موند در فرانسه انجام شده است مشخص شده الگوریتمی که سازمان تامین اجتماعی این کشور از آن برای تشخیص ریسک استفاده میکند، گروههای آسیبپذیرتر از نظر مالی را بیشتر از دیگران برای بازرسی شدن پیشنهاد میدهد.
در سال ۲۰۲۱ پس از افشای خبر اتهام اشتباهی مقامات هلندی به هزاران نفر از مردم این کشور در زمینه کلاهبرداریهای رفاهی، دولت هلند مجبور استعفا شد. مقامات امور مالیاتی این کشور ۲۶ هزار نفر را متهم کرده بودند که برای دریافت مزایای فرزندآوری کلاهبرداری کردهاند. مشخص شد که علت این حادثه وجود خطا در الگوریتمهای مورد استفاده بود که به شکل غیرواقعی خطر کلاهبرداری خانوارهای کمدرآمد و اقلیتهای قومیتی بالاتر برآورد میکرد.
سیاستگذاران اتحادیه اروپا در ۸ دسامبر ۲۰۲۳ برای تصویب قانون هوش مصنوعی به توافق رسیدند، اما امانوئل ماکرون رئیس جمهور فرانسه ابراز نگرانی کرده است که این مقررات میتواند مانع از نوآوری شود.
حتی اگر این اتفاق رخ بدهد و کار جلو برود، تردید وجود دارد که این مقررات، تدابیر معناداری را در برابر سیستمهای تبعیضآمیز تشخیص کلاهبرداری اعمال کند، چه رسد به اینکه از گسترش آنها جلوگیری کند و همچنان میتوانند مردم را از حمایتهای اساسی محروم کرده و علیه گروههای آسیبپذیر تبعیض قائل شوند.
در ایالات متحده نیز وابسته شدن زندگی مردم به هوش مصنوعی و عدم وجود قانونگذاری صحیح در این حوزه، خیلی از اقدامات مورد نیاز را متوقف کرده و میکند.
یکی از برنامههای مبتنی بر هوش مصنوعی به نام Medicaid که در ایالتهای مختلف این کشور مورد استفاده قرار میگیرد، ایرادات اساسی زیادی داشته و استفاده از آن منجر به کاهش ساعات مراقبتی افراد مسن و دارای معلولیت در منزل شده است.
این الگوریتم به طور خودسرانه و غلط، ساعات مراقبت در منزل را که به بسیاری از افراد مسن و افراد دارای معلولیت اختصاص داده شده بود، کاهش داد و آنها را مجبور کرد که از وعدههای غذایی، حمام و سایر کارهای اساسی که به کمک نیاز دارند صرف نظر کنند.
کنگره لوایح زیادی را برای تنظیم این فناوریها پیشنهاد کرده است، اما مشخصترین اقدام تاکنون از سوی کاخ سفید انجام شده است.
دستور اجرایی اخیر کاخ سفید، به توسعهدهندگان هوش مصنوعی مولد دستور میدهد تا نتایج تست ایمنی را ارائه کنند و سازمانهای فدرال را ملزم میکند در مورد نحوه استفاده از هوش مصنوعی دستورالعملهایی تدوین و ارائه کنند.
بهویژه آژانسهای فدرال که ناظر بر برنامههای Medicaid، کمکهای غذایی و از این دست برنامهها هستند ملزم به تهیه راهنمایی در مورد خودکارسازی این برنامهها به شیوهای هستند که شفافیت، روند مناسب و «نتایج عادلانه» را تضمین کند.
با این حال آنچه این دستور در نظر نمیگیرد، اعمال خطوط قرمز علیه کاربردهای فناوری است که به نظر میرسد مستعد سوءاستفاده باشد، مانند تکنولوژی تشخیص چهره.
همچنین دستورات اجرایی جایگزین قانونگذاری نمیشوند و این یعنی فقط کنگره میتواند به مقامات فدرال اختیارات و بودجه جدید برای تنظیمگری صنعت فناوری را اعطا کند و تنها کنگره میتواند محدودیتهای جدیدی را در مورد نحوه هزینهکرد ایالتها برای سیستمهای هوش مصنوعی اعمال کند.
آسیب هوش مصنوعی به خدمات عمومی، نقشه راه را در مورد شیوهی مقرراتگذاری معنادار این فناوری ارائه میدهد. شاید مهمترین درسی که باید بگیریم این است که بعضی حوزهها ممنوعه شوند؛ برای مثال ممنوعیت برخی کاربریهای هوش مصنوعی که خطری غیرقابل قبول برای حقوق مردم ایجاد میکند. البته این ممنوعیتها همچنین زمانی باید در نظر گرفته شوند که خطرات ناشی از هوش مصنوعی به اندازه کافی از طریق بررسی دقیق، نظارت انسانی و سایر اقدامات حفاظتی قابل کاهش نباشد.
سیاستگذاران نباید اجازه دهند تبلیغات در مورد هوش مصنوعی مولد یا حدس و گمان در مورد خطرات وجودی آن، آنها را از وظیفه فوری رسیدگی به آسیبهای سیستمهای هوش مصنوعی که در حال حاضر در میان ما هستند، منحرف کند. عدم توجه به درسهای گذشته و حال هوش مصنوعی ما را محکوم به تکرار همان اشتباهات میکند.
https://gerdab.ir/0009mh