هوش مصنوعی هرچقدر که توسعه می‌یابد، بیشتر و بیشتر رفتارهایی مشابه انسان از خود نشان می‌دهد؛ تا جایی که شاید نتوان تشخیص داد با انسان روبرو هستیم یا با هوش مصنوعی. این امر منجر شده تا متوجه برخی خطرات بالقوه هوش مصنوعی نشویم. این خطرات می‌توانند فراهم نمودن بستر جاسوسی، یا جلوه دادن جنبش اجتماعی به مثابه انقلاب باشند.

درحالی که در دهه‌های گذشته شاهد توسعه‌ی بسیاری از سیاست‌ها و روش‌هایی برای کاهش استفاده مخرب و اثرات غیرمطلوب هوش مصنوعی بودیم اما هنوز ممکن است سوء‌استفاده‌هایی از هوش مصنوعی شود. هوش مصنوعی از آن‌جا که وابسته به نظر و اراده انسان است، می‌تواند در جهت منفی مورد استفاده قرار گیرد. این موضوع می‌تواند ناشی از خطای سهوی و یا اقدامات مغرضانه انسان‌ها باشد. زمانی که بحث از استفاده مخرب از هوش مصنوعی به میان می‌آید، روزنامه‌نگاران با این سوال مواجه می‌شوند که چگونه موضوع را روایت کنند؟ آیا مانند اتفاقات جنایی باید قضیه را با آب و تاب فراوان گزارش دهند؟ بهتر این است که روزنامه‌نگاران واقع‌بین باشند و هوش مصنوعی را مانند یک هیولای ترسناک به تصویر نکشند. آنان باید تا می‌توانند هوش مصنوعی را مانند یک تیغ دولبه که در دست انسان است، معرفی کنند. این‌گونه، مخاطب هوش مصنوعی را مانند یک ابزار تصور می‌کند. البته نه مانند یک ابزار خنثی، چراکه مخاطب باید متوجه اراده‌ی انسانی پشت هوش مصنوعی شود.

روزنامه‌نگاران برای آن‌که تهدیدات بالقوه‌ی هوش مصنوعی را واقع‌بینانه‌ گزارش کنند، لازم است شناخت ضمنی به این موضوع داشته باشند. هوش مصنوعی می‌تواند تأثیر مستقیمی بر اتفاقات و رویدادهای اجتماعی و سیاسی بگذارد، از جاسوسی و سرقت اطلاعات گرفته تا جریان‌سازی و جهت‌دهی افکار عمومی. حال اگر ربات‌ها تأثیر زیادی در یک جنبش اجتماعی داشته باشند و از طرفی روزنامه‌نگاران درکی از شیوه عملکرد آن ربات نداشته باشند، قطعا گزارش و تحلیل صحیحی از آن جنبش نمی‌توانند ارائه دهند. از همین جهت، آشنایی با خطرات بالقوه‌ی هوش مصنوعی برای همه مخصوصاً اهالی رسانه و محققان ضروری است.

بدافزارها

برخی از کارشناسان، تهدیدات مرتبط با هوش مصنوعی را به سه دسته تقسیم می‌کنند: امنیت دیجیتال، مانند جلوگیری از هک و ویروس، امنیت فیزیکی، مانند استفاده از هوش مصنوعی برای اهداف تروریستی و امنیت سیاسی مانند نشر اخبار، تصاویر و صوت‌های جعلی، ایجاد حباب اطلاعاتی و حملات اطلاعاتی توسط ربات‌ها. بدافزارها از مواردی هستند که با پیشرفت هوش مصنوعی، گسترش یافته‌اند. درواقع هوش مصنوعی در ایجاد بدافزارها بسیار موثر است. بدافزارها می‌توانند اطلاعات شخصی را تهدید کنند و یا می‌توانند کاربران را از دسترسی به اطلاعات محروم کنند. برخی از بدافزارها، جاسوس‌افزار (spyware) هستند. آن‌ها می‌توانند اطلاعات یک سیستم را جمع‌آوری کنند و به رایانه‌ی دیگری بفرستند. این ویروس می‌تواند بر روی عکس، فیلم یا هر نوع فایل دیگری قرار گیرد و با دانلود شدن فایل، به صورت خودکار عمل کند. این‌گونه اطلاعات مربوط به پیامک‌ها، رمزهای عبور، شماره کارت و دیگر اطلاعات به سرقت می‌روند.

آگهی‌افزار (adware) نوع دیگری از نرم‌افزارهای مخرب است که مخاطب را وادار به مشاهده‌ی تبلیغات می‌کند. این بدافزار به صورت مخفیانه عمل می‌کند. این بدافزار باعث می‌شود شما را به سمت سایت‌های تبلیغاتی هدایت کند.

یکی دیگر از ویروس‌ها، ترس‌افزار (Scareware) نام دارد. این بد افزار با ایجاد شوک و اضطراب به کاربر، او را وادار می‌کند تا اقداماتی را که برخلاف منافع خود است، انجام دهد. برای مثال باج افزار (Ransomware) از دسترسی کاربر به سیستم خود جلوگیری می‌کند و با تهدید انتشار اطلاعات شخصی از او می‌خواهد که باج پرداخت کند. یا بدافزار (Rogue software) منجر می‌شود شما به اشتباه باور کنید که دستگاه شما ویروسی شده و برای حذف ویروس شما را متقاعد می‌کند که آنتی ویروس جعلی نصب کنید. بدافزار دیگری که خیلی می‌تواند مضر باشد، بد افزار برف پاک‌کن (Wipers erase) است‌. این بدافزار منجر به پاک شدن داده‌ها و اطلاعات شخصی شما می‌شود.

ربات‌ها

فریب کاربران و سرقت اطلاعات شخصی از طریق دستکاری روانشناختی آنان، مهندسی اجتماعی (Social Engineering) نام دارد. با پیشرفت روزافزون هوش مصنوعی، استفاده از بدافزارها جهت مهندسی اجتماعی، رشد چشمگیری داشته است. علاوه بر بدافزارها، ربات‌ها نیز می‌توانند در مهندسی اجتماعی دخیل باشند. ربات‌ها برنامه‌هایی هستند که برای اجرای فعالیت‌های خودکار توسعه یافته‌اند.

ربات‌های مفید، می‌توانند در امورات مختلف کمک‌کننده باشند. ربات‌های مفید به صورت خودکار، وب‌ها و بانک‌های اطلاعاتی را پرسه می‌زنند و اطلاعات مفیدی مثل گزارش آب و هوا، میزان ترافیک و نتایج ورزشی را گزارش می‌دهند. آن‌ها همچنین می‌توانند در ویرایش اطلاعات ویکی‌پدیا یا هشدار زلزله کمک‌کننده باشند. ربات‌ها همچنین این توانایی را دارند تا به عنوان دستیار روزنامه‌نگاران فعالیت کنند. اینگونه ربات‌ها اخبار مهم و یا رویدادها را به روزنامه‌نگاران اطلاع می‌دهند. این ربات‌ها که مانند یک انسان رفتار می‌کنند، ربات‌های اجتماعی (social bots) نام دارند.

ربات‌های اجتماعی همیشه مفید و خوش‌خیم نیستند. ربات‌های اجتماعی می‌توانند هویت انسانی را جعل کنند و راه تشخیص انسان یا ربات بودن را دشوار سازند. ربات آستروتورفینگ، برای فریب کاربران جهت تأثیرگذاری بر تصمیم‌گیری‌ها و تغییر افکار عمومی استفاده می‌شود. مثلا زمانی که بخواهند یک جنبش را در فضای مجازی همچون انقلاب جلوه دهند، از این ربات استفاده می‌کنند. این ربات می‌تواند با حساب جعلی، خود را مانند یک انسان نشان دهد و بر انتخابات، جنبش‌های اجتماعی، کمپین‌های مجازی و مهم جلوه دادن اخبار حاشیه‌ای تاثیر بگذارند. همچنین از این ربات برای بازاریابی استفاده می‌شود. کاربران از آنجا که نمی‌توانند تشخیص دهند که پیام تبلیغاتی از طرف یک ربات است، به اشتباه تصور می‌کنند که دیگر شهروندان هم به این کالا علاقه نشان داده‌اند.

چاقوی دو لبه

با اینکه در این متن بیشتر بر بدافزارها و ربات‌ها تمرکز شده بود، اما خطرات هوش مصنوعی به این موارد محدود نمی‌شود. توسعه‌ی یادگیری عمیق (deep learning) رواج صورت‌ها، تصاویر و فیلم‌های جعلی را آسان‌تر کرده است. کاربردها و محاسن هوش مصنوعی نباید منجر به نادیده گرفتن مضرات آن شود. البته همانطور که اشاره شد، معایب هوش مصنوعی مستقیماً به خود او باز نمی‌گردد، چراکه هوش مصنوعی فراتر از یک ابزار در دست انسان نیست. از همین جهت قوانین مربوط به هوش مصنوعی ناظر بر دست‌اندرکاران آن است.