هوش مصنوعی درحال فتح جهان است و شرکتهای فناوری، خواهان استفاده هرچه بیشتر از این تکنولوژی هستند. مؤسسات تحقیقاتی، علم را تحت فشار قرار میدهد تا هوش مصنوعی توسعه پیدا کند و هوش مصنوعی مانند اسب وحشی درحال تاختن است. سیاستمداران اما به دنبال رام کردن هوش مصنوعی هستند. آنها خطرات بالقوه AI را درک کردهاند و تلاش میکنند تا دیر نشده آن را کنترل کنند. چارچوبهایی که اغلب هدفشان برای به حداکثر رساندن فرصتها و کاهش مخاطرات احتمالی است. هوش مصنوعی در حوزههای مختلف امکانات خوبی برای انسانها به ارمغان آورده است. در حوزه بینایی ماشینی مانند ماشینهای خودران، تشخیص چهره و تشخیص اشیاء، در حوزه پردازش زبان طبیعی مانند ترجمه خودکار، سیستمهای پاسخگویی، و حتی در حوزههای پزشکی مانند تشخیص سرطان ریه، تشخیص کرونا، جراح روباتیک و دیگر عرصهها رشد چشمگیری داشته است. اما همانقدر که به قدرت هوش مصنوعی افزوده میشود، درک ما از عواقب منفی آن هم افزایش پیدا میکند.
تاثیر ارزش انسانی در هوش مصنوعی
یکی از خطرات مهم هوشهای مصنوعی، ماهیت داده محور بسیاری آنها است. به این صورت که با درخواست از آن، الگو را کشف میکند و براساس دادههای موجود پیشنهادهایی ارایه میدهد. شاید در نگاه اول بدون نقص جلوه کند، اما ایراد اصلی آنجاست که اگر دادهها و کدگذاریهای صورت گرفته توسط انسانها صحیح و مطابق با واقع نباشد، جواب هوش مصنوعی منجر به تثبیت گزارههای غلط میشود. خنثی پنداری هوش مصنوعی میتواند مقدمه سیطره آن بر انسانها باشد. بعید است هوش مصنوعی بتواند جوابهای منصفانه بدهد و محال است ارزشهای انسانی در تدوین و ایجاد دادهها دخالت نداشته نباشد. این مسأله منجر شده تا سیاستمداران یا اندیشمندان در حوزه اخلاق تکنولوژی و هوش مصنوعی به فکر فرو روند.
از طرفی هوش مصنوعی از انسانها سریع تر است. آنها نسبت به انسان، به حجم بیشتری از دادهها دسترسی دارند و اطلاعات بیشتری را پردازش و تفسیر میکنند. این امر منجر به ایجاد سوال چالش برانگیزی شده است. آیا هوش مصنوعی از انسانها باهوشتراند؟ آیا باید به هوش مصنوعی اعتماد کرد؟ پزشکی را تصور کنید که برای تشخیص یا درمان بیماری به نسخههای هوش مصنوعی استناد میکند، در این زمان آیا پزشک باید نسخه هوش مصنوعی را معتبر بداند یا به آموزههای استادان و همکاران خود رجوع کند؟ آیا دیگر به کتاب، دانشگاه و استاد نیازی هست یا اینکه هوش مصنوعی جایگزین خوبی برای آنان خواهد شد؟ اگر هوش مصنوعی نسخه اشتباهی پیچید و پزشک آن را بر روی بیمار اعمال کرد، مسئولیت عواقب آن را چه کسی برعهده میگیرد ؟ چه کسی باید مجازات شود؟ پزشک یا هوش مصنوعی؟ و در آخر اینکه آیا جهان برای از بین رفتن بسیاری از مشاغل آمادگی لازم را دارد؟
تدوین اخلاق هوش مصنوعی
کمیسیون اروپا و یونسکو از مراکزی هستند که در حوزه اخلاق هوش مصنوعی توصیههایی داشتهاند. رویکرد اروپایی، نگاه انسان محور به اخلاق هوش مصنوعی دارد. این بدان معنی است که هوش مصنوعی به خودی خود هدف نیست بلکه راهی برای بهبود شرایط انسان است. درواقع هم به دنبال هوش مصنوعی هستند و هم به دنبال آن نیستند. هدف اصلی این است که فرصتهای مطلوب برای انسان گسترش یابد و خطرات آن کنترل شود. از نظر کارشناسان کمیسیون اروپا، هوش مصنوعی خوب باید سه ویژگی داشته باشد. ۱. قانونی باشد و به قانون احترام بگذارد ۲. اخلاقی باشد و به ارزشها پایبند باشد ۳. باید قوی و دقیق باشد و مطابق استانداردهای فنی عمل کند. کمیسیون اروپا چهار اصل اخلاقی را برای هوش مصنوعی درنظر میگیرد. اول اینکه هوش مصنوعی باید استقلال انسان را تضمین کند. انسانها در استفاده از هوش مصنوعی نباید متحمل زور و اجبار شوند. زمانی که یک موسسه یا حتی دولت مردم را مجبور به استفاده از هوش مصنوعی کرد یا آنها را با پروپاگاندا به سمت آن جهت داد، باید به آن مشکوک شد. تصور کنید استفاده از یک اپلیکیشن به تندرستی و حفظ سلامتی کمک میکند. اما وقتی شرکت بیمه از شما بخواهد از همان برنامه استفاده کنید تا از تخفیف بیمه بهره مند شوید ماجرا کمی متفاوت میشود. در اینجا باید مشکوک شد که هدف شرکت بیمه چیست و چرا همچین درخواستی از شهروندان دارد. اصل اخلاقی دوم، پیشگیری از آسیب جسمی و روانی است. هوش مصنوعی باید از آسیب جسمی و روانی به انسانها جلوگیری کند. اصل سوم اینکه هوش مصنوعی باید منصفانه باشد. طبیعی است که هوش مصنوعی باید از اصل عدالت تبعیت کند. البته خود کارشناسان کمیسیون اروپا متوجه شدهاند که تعاریف مختلفی از عدالت وجود دارد. آیا عدالت در انتشار نتایج هوش مصنوعی باید باشد یا در توزیع امکانات و زیرساختهای هوش مصنوعی ؟ و در آخر اصل چهارم به روشن بودن و توضیح پذیر بودن هوش مصنوعی مربوط میشود. شفافیت و قابل پیگیری بودن اقدامات دستاندرکاران هوش مصنوعی از اصلهای مهم و چالش برانگیز است.
یونسکو از دیگر مراکزی است که در حوزه اخلاق هوش مصنوعی توصیههایی داشته است. طبق ادعای یونسکو برای تنظیم اخلاق هوش مصنوعی باید تنوعهای فرهنگی را درنظر گرفت. یونسکو معتقد است که هوش مصنوعی یک پدیده جهانی است و باید سازمانهای جهانی درباره آن چارچوب تعیین کنند. یونسکو در بند اخلاق هوش مصنوعی، احترام به حقوق بشر و کرامت انسانی را متذکر میشود. همچنین به محیط زیست و اکوسیستم اشاره میکند. یونسکو در بندهای بعدی به جوامع صلح آمیز و گسترش عدالت را یادآور میشود. از اصول دیگری که یونسکو بیان میکند، آسیب نرساندن به انسان، عدم تبعیض، حفظ حریم خصوصی، شفافیت و پاسخگویی است.
اخلاق اروپایی
هرچند که یونسکو معتقد است تا اجرایی شدن این اصول بسیار راه طولانی وجود دارد، اما با فرض درست بودن اصول اخلاقی-اروپایی آنان، ماجرا به همین سادگی پایان نمییابد. کلی گویی و جملات مبهم منجر میشود که راه برای اعمال نظر شخصی و جهت دار باز شود. اگر روسیه و اسرائیل به یک اندازه در پیشبرد جنگ از هوش مصنوعی استفاده کنند، آیا به یک اندازه محکوم خواهند شد؟ آیا روسیه و اسرائیل به یک اندازه حقوق بشر را زیر پا گذاشتهاند؟ زمانی که شما از کرامت انسانی، حقوق بشر، عدالت و یا حتی از آسیب جسمی و روانی صحبت میکنید دقیقاً تعریف از این واژهها چیست؟ شما چه تعریفی از کرامت، حق، عدالت و انسان دارید؟ آیا به رسمیت نشناختن همجنسبازان در ایجاد الگوریتم یک ربات سخنگو، مصداق وارد کردن آسیب روانی به این افراد است؟ اینها سوالاتی است که بحث اخلاق هوش مصنوعی را به چالش میکشد. بحثی که زمان زیادی برای کامل شدن نیاز دارد.
نظر شما