پیشرفته شدن هوش مصنوعی چقدر خطر دارد؟
از مشهورترین نمونههای هوش مصنوعی میتوان به «سیری» و «الکسا» اشاره کرد که به صدای انسان گوش میدهند، واژهها را تشخیص میدهند، عمل جستجو را انجام داده و نتایج متن را به گفتار، ترجمه میکنند. اما این دو و سایر فناوریهای هوش مصنوعی باعث مطرح شدن مسائل مهمی میشوند؛ مثل حریم خصوصی افراد و اینکه آیا ماشینها میتوانند تصمیمهای منصفانهای بگیرند یا خیر؟
همچنانکه کنگرهی آمریکا در حال بررسی این نکته است که آیا قوانینی را در راستای چگونگی کارکرد سیستمهای هوش مصنوعی در جامعه وضع کند یا خیر، یکی از کمیتههای حاضر در کنگره بر نگرانیهایی که پیرامون انواعی از الگوریتمهای هوش مصنوعی وجود دارد، تاکید کرد. بهویژه الگوریتمهایی که توانایی انجام کارهای دشوار و پیچیده را دارند.
قابلیتهای این گونه وسیلهها با همهی ماشینهای هوش مصنوعی عمومی فرق دارد. از نمونههای دیگر این وسیلهها، میتوان به «AlphaGo» و یک وسیلهی پزشکی به نام «OsteoDetect» اشاره کرد؛ AlphaGo برنامهای کامپیوتری است که اخیراً انسان را در بازی فکری سنتی «Go» شکست داد. OsteoDetect از هوش مصنوعی برای کمک به پزشکان در راستای شناسایی شکستگیهای دست مورد استفاده قرار میگیرد.
من به عنوان معلم و مشاور آن دسته از دانشجویانی که دربارهی نظارت قانونی بر فناوریهای نوظهور تحقیق میکنند، گزارش کنگره را نشانهی مثبتی از حرکت قانونگذاران آمریکا در کنترل چالشهایی میدانم که فناوریهای هوش مصنوعی به همراه میآورند. قبل از اقدام برای وضع قوانین نظارتی، مسئولان و عموم مردم باید به خوبی اثرات هوش مصنوعی بر افراد و جامعه را درک کنند. بر اساس اطلاعات جمعآوری شده در یک سری بررسی، پیرامون هوش مصنوعی در سال ۲۰۱۸، بر این نکته تاکید شد که آمریکا در توسعهی هوش مصنوعی دست بالا را ندارد و نمیتواند در این زمینه به عنوان رهبری جهانی شناخته شود. این امر در روند گستردهتری هم به وقوع پیوسته است. از اوایل دههی ۲۰۰۰ میلادی، اعطای کمک مالی در آمریکا، برای انجام تحقیقات علمی رو به کاهش گذاشته است. در عوض، کشورهایی مثل چین و روسیه به میزان بیشتری در توسعهی فناوریهای هوش مصنوعی سرمایهگذاری کردهاند.
همان طور که نگرانیهای اخیر دربارهی دخالت کشور روسیه در انتخابات اخیر آمریکا و اروپا مطرح شد، توسعهی فناوریهای پیچیدهتر نیز نگرانیهایی را دربارهی امنیت و حریم خصوصی شهروندان آمریکایی به پیش کشیده است. سیستمهای هوش مصنوعی، اکنون میتوانند برای دسترسی به اطلاعات شخصی مورد استفاده قرار بگیرند، پهپادها را هدایت کنند و سیستمهای مراقبت و پایش را کارآمدتر از گذشته نمایند. روی هم رفته، هوش مصنوعی میتواند ابزارهای جدید و پیشرفتهتری در اختیار دولتها و شرکتها قرار دهد تا کاربران را مورد نظارت قرار داده و از اطلاعات کاربران جاسوسی کنند. اگرچه توسعه و پیشرفت هوش مصنوعی هنوز در مراحل ابتدایی خود قرار دارد، اما میتوان در حال حاضر هم از الگوریتمها برای گمراه کردن خوانندگان، کاربران شبکههای اجتماعی و حتی عموم مردم، استفاده کرد.
البته به مانند بسیاری دیگر از فناوریها، از الگوریتم یکسانی میتوان هم برای اهداف شرورانه و هم مفید استفاده کرد. برای مثال، برنامه لب خوانی هوش مصنوعی با نام «LipNet» که در دانشگاه آکسفورد ساخته شده است، از نرخ درستی ۹۳.۴ درصدی بهره می برد. این مقدار بسیار فراتر از بهترین عملکرد انسانهایی است که لب خوانی میکنند. نرخ درستی انسانها در عمل لب خوانی بین ۲۰ الی ۶۰ درصد است. این خبر برای افرادی که از اختلالات شنوایی و گفتاری رنج می برند، خوب است. در ضمن، این برنامه میتواند برای اهداف نظارتی گسترده یا حتی نظارت بر افراد خاصی مورد استفاده قرار بگیرد.
شاید برخی کاربردهای هوش مصنوعی هنوز به خوبی شفاف سازی نشده باشد، حتی برای افرادی که از این فناوری استفاده میکنند. اخیراً، افراد از جهتگیری موجود در دادههایی که برنامههای هوش مصنوعی را تقویت میکنند، آگاه شدهاند. در واقعیت، الگوریتمهای ساختهی انسان، از دادههای ناقص برای اتخاذ تصمیم استفاده میکنند؛ به طوری که جهتگیری انسان بازتاب داده میشود. نکتهی حائز اهمیت این است که تصمیم کامپیوتر شاید منصفانهتر از تصمیمِ اتخاذ شده توسط انسان باشد. برای مثال، برخی دادگاهها از برنامهی «COMPAS» برای تصمیم بر سر اینکه متهمان جرایم را با قید وثیقه یا ضمان آزاد کنند یا خیر، استفاده میکنند.
با این حال، شواهد نشان میدهد که این برنامه نسبت به متهمان سیاهپوست با جهتگیری و تعصب عمل میکند. فناوریهای پیشبینی کننده از این دست به طرز فزایندهای در حال گسترش هستند. بانکها از این نوع برنامهها برای تعیین اینکه چه کسی وام بگیرد، استفاده میکنند. در اکثر موارد، این برنامهها فقط بر جهتگیریها و عقاید متعصبانه دامن میزنند، تا اینکه آنرا از بین ببرند.
همانطور که قانونگذاران شروع به بررسی پتانسیل بالقوه هوش مصنوعی کردهاند، باید در پرهیز از نوآوری خفقانآور جانب احتیاط را رعایت کنند. از دیدگاه من، کنگرهی آمریکا در این راستا تصمیم درستی را انتخاب کرده است. در گزارش کنگره، سرمایهگذاری بیشتر در زمینهی هوش مصنوعی و پشتیبانی مالی از آژانسهای بیشتر، از ناسا گرفته تا موسسهی ملی سلامت، مورد تاکید قرار گرفته است. همچنین این گزارش به قانونگذاران هشدار میدهد تا از اتخاذ تصمیمهای عجولانه پرهیز کنند. همچنین، تاکید بر این است که قانونگذاران نباید موانع مقرراتی زیادی را در مقابل فناوریهایِ در حال پیشرفت قرار دهند.
نکتهی مهمتر اینکه، به اعتقاد من، مردم باید قواعد فکری فراتر از متریکهایی ببرند که میگویند برنامههای هوش مصنوعی بسیار قدرتمند و کاربردی بوده و باعث صرفهجویی در زمان میشوند. همزمان که فناوری در حال برداشتن گامهای بلند رو به جلو است، مردم باید مباحث وسیعتری را دربارهی چگونگی حذف یا تقلیل جهتگیری دادهها مطرح کنند.