درحالی که در دهههای گذشته شاهد توسعهی بسیاری از سیاستها و روشهایی برای کاهش استفاده مخرب و اثرات غیرمطلوب هوش مصنوعی بودیم اما هنوز ممکن است سوءاستفادههایی از هوش مصنوعی شود. هوش مصنوعی از آنجا که وابسته به نظر و اراده انسان است، میتواند در جهت منفی مورد استفاده قرار گیرد. این موضوع میتواند ناشی از خطای سهوی و یا اقدامات مغرضانه انسانها باشد. زمانی که بحث از استفاده مخرب از هوش مصنوعی به میان میآید، روزنامهنگاران با این سوال مواجه میشوند که چگونه موضوع را روایت کنند؟ آیا مانند اتفاقات جنایی باید قضیه را با آب و تاب فراوان گزارش دهند؟ بهتر این است که روزنامهنگاران واقعبین باشند و هوش مصنوعی را مانند یک هیولای ترسناک به تصویر نکشند. آنان باید تا میتوانند هوش مصنوعی را مانند یک تیغ دولبه که در دست انسان است، معرفی کنند. اینگونه، مخاطب هوش مصنوعی را مانند یک ابزار تصور میکند. البته نه مانند یک ابزار خنثی، چراکه مخاطب باید متوجه ارادهی انسانی پشت هوش مصنوعی شود.
روزنامهنگاران برای آنکه تهدیدات بالقوهی هوش مصنوعی را واقعبینانه گزارش کنند، لازم است شناخت ضمنی به این موضوع داشته باشند. هوش مصنوعی میتواند تأثیر مستقیمی بر اتفاقات و رویدادهای اجتماعی و سیاسی بگذارد، از جاسوسی و سرقت اطلاعات گرفته تا جریانسازی و جهتدهی افکار عمومی. حال اگر رباتها تأثیر زیادی در یک جنبش اجتماعی داشته باشند و از طرفی روزنامهنگاران درکی از شیوه عملکرد آن ربات نداشته باشند، قطعا گزارش و تحلیل صحیحی از آن جنبش نمیتوانند ارائه دهند. از همین جهت، آشنایی با خطرات بالقوهی هوش مصنوعی برای همه مخصوصاً اهالی رسانه و محققان ضروری است.
بدافزارها
برخی از کارشناسان، تهدیدات مرتبط با هوش مصنوعی را به سه دسته تقسیم میکنند: امنیت دیجیتال، مانند جلوگیری از هک و ویروس، امنیت فیزیکی، مانند استفاده از هوش مصنوعی برای اهداف تروریستی و امنیت سیاسی مانند نشر اخبار، تصاویر و صوتهای جعلی، ایجاد حباب اطلاعاتی و حملات اطلاعاتی توسط رباتها. بدافزارها از مواردی هستند که با پیشرفت هوش مصنوعی، گسترش یافتهاند. درواقع هوش مصنوعی در ایجاد بدافزارها بسیار موثر است. بدافزارها میتوانند اطلاعات شخصی را تهدید کنند و یا میتوانند کاربران را از دسترسی به اطلاعات محروم کنند. برخی از بدافزارها، جاسوسافزار (spyware) هستند. آنها میتوانند اطلاعات یک سیستم را جمعآوری کنند و به رایانهی دیگری بفرستند. این ویروس میتواند بر روی عکس، فیلم یا هر نوع فایل دیگری قرار گیرد و با دانلود شدن فایل، به صورت خودکار عمل کند. اینگونه اطلاعات مربوط به پیامکها، رمزهای عبور، شماره کارت و دیگر اطلاعات به سرقت میروند.
آگهیافزار (adware) نوع دیگری از نرمافزارهای مخرب است که مخاطب را وادار به مشاهدهی تبلیغات میکند. این بدافزار به صورت مخفیانه عمل میکند. این بدافزار باعث میشود شما را به سمت سایتهای تبلیغاتی هدایت کند.
یکی دیگر از ویروسها، ترسافزار (Scareware) نام دارد. این بد افزار با ایجاد شوک و اضطراب به کاربر، او را وادار میکند تا اقداماتی را که برخلاف منافع خود است، انجام دهد. برای مثال باج افزار (Ransomware) از دسترسی کاربر به سیستم خود جلوگیری میکند و با تهدید انتشار اطلاعات شخصی از او میخواهد که باج پرداخت کند. یا بدافزار (Rogue software) منجر میشود شما به اشتباه باور کنید که دستگاه شما ویروسی شده و برای حذف ویروس شما را متقاعد میکند که آنتی ویروس جعلی نصب کنید. بدافزار دیگری که خیلی میتواند مضر باشد، بد افزار برف پاککن (Wipers erase) است. این بدافزار منجر به پاک شدن دادهها و اطلاعات شخصی شما میشود.
رباتها
فریب کاربران و سرقت اطلاعات شخصی از طریق دستکاری روانشناختی آنان، مهندسی اجتماعی (Social Engineering) نام دارد. با پیشرفت روزافزون هوش مصنوعی، استفاده از بدافزارها جهت مهندسی اجتماعی، رشد چشمگیری داشته است. علاوه بر بدافزارها، رباتها نیز میتوانند در مهندسی اجتماعی دخیل باشند. رباتها برنامههایی هستند که برای اجرای فعالیتهای خودکار توسعه یافتهاند.
رباتهای مفید، میتوانند در امورات مختلف کمککننده باشند. رباتهای مفید به صورت خودکار، وبها و بانکهای اطلاعاتی را پرسه میزنند و اطلاعات مفیدی مثل گزارش آب و هوا، میزان ترافیک و نتایج ورزشی را گزارش میدهند. آنها همچنین میتوانند در ویرایش اطلاعات ویکیپدیا یا هشدار زلزله کمککننده باشند. رباتها همچنین این توانایی را دارند تا به عنوان دستیار روزنامهنگاران فعالیت کنند. اینگونه رباتها اخبار مهم و یا رویدادها را به روزنامهنگاران اطلاع میدهند. این رباتها که مانند یک انسان رفتار میکنند، رباتهای اجتماعی (social bots) نام دارند.
رباتهای اجتماعی همیشه مفید و خوشخیم نیستند. رباتهای اجتماعی میتوانند هویت انسانی را جعل کنند و راه تشخیص انسان یا ربات بودن را دشوار سازند. ربات آستروتورفینگ، برای فریب کاربران جهت تأثیرگذاری بر تصمیمگیریها و تغییر افکار عمومی استفاده میشود. مثلا زمانی که بخواهند یک جنبش را در فضای مجازی همچون انقلاب جلوه دهند، از این ربات استفاده میکنند. این ربات میتواند با حساب جعلی، خود را مانند یک انسان نشان دهد و بر انتخابات، جنبشهای اجتماعی، کمپینهای مجازی و مهم جلوه دادن اخبار حاشیهای تاثیر بگذارند. همچنین از این ربات برای بازاریابی استفاده میشود. کاربران از آنجا که نمیتوانند تشخیص دهند که پیام تبلیغاتی از طرف یک ربات است، به اشتباه تصور میکنند که دیگر شهروندان هم به این کالا علاقه نشان دادهاند.
چاقوی دو لبه
با اینکه در این متن بیشتر بر بدافزارها و رباتها تمرکز شده بود، اما خطرات هوش مصنوعی به این موارد محدود نمیشود. توسعهی یادگیری عمیق (deep learning) رواج صورتها، تصاویر و فیلمهای جعلی را آسانتر کرده است. کاربردها و محاسن هوش مصنوعی نباید منجر به نادیده گرفتن مضرات آن شود. البته همانطور که اشاره شد، معایب هوش مصنوعی مستقیماً به خود او باز نمیگردد، چراکه هوش مصنوعی فراتر از یک ابزار در دست انسان نیست. از همین جهت قوانین مربوط به هوش مصنوعی ناظر بر دستاندرکاران آن است.
نظر شما