روزنامۀ پرفروش «بیلْد[i]» در آلمان، از قرار معلوم برای جایگزینی نقشهای معیّن مربوط به سردبیری، درحال اتّخاذ هوش مصنوعی است تا هزینهها را بکاهد.
در ایمیل محرمانۀ فاششدهای که در تاریخ نوزدهم ژوئن برای کارکنان وب سایت، اَکسِل اسپرینگر، منتشرکنندۀ این سند، گفت: «متأسّفانه همکارانی که دارای وظایفی هستند که با هوش مصنوعی یا فرایندهای دنیای دیجیتال جایگزین میشوند، جدا خواهند شد. کارکردهای مدیران تحریریه، سردبیران صفحه، نمونهخوانها، منشیان و دبیران بخش عکس، دیگر مثل امروز وجود نخواهد داشت.»
این ایمیل، بهدنبال یادداشتی در ماه فوریه آمده که در آن، مدیر اجراییِ اکسل اسپرینگر نوشته است که این روزنامه، به یک «شرکت رسانهای صرفاً دیجیتال» گذار خواهد کرد و اینکه «هوش مصنوعی، این ظرفیّت را دارد که روزنامهنگاری مستقل را بهتر از آنچه که بوده، کند یا بهسادگی، جایگزین آن شود.».
«بیلْد»، پسازآن تکذیب کرد که سردبیران، بهزودی با هوش مصنوعی جایگزین خواهند شد. این روزنامه، اظهار داشت که تعدیل کارکنان، بهخاطر تجدید سازمان است و هوش مصنوعی، بهجای آنکه جایگزین کار روزنامهنگاری شود، از آن حمایت خواهد کرد.
بااینوجود، این تحوّلاتْ موضوعی را مسلّم فرض میکنند؛ ستونهای اصلی کار سردبیری، قضاوت، دقّت، مسئولیّت و بیطرفی، چگونه در میان موج روبهافزایش هوش مصنوعی، پیش خواهند رفت؟
سپردن وظیفههای سردبیری به هوش مصنوعی، چه درحالحاضر و چه در آینده، خطرهای جدّیای را به همراه دارد؛ هم بهدلیل طبیعت هوش مصنوعی و هم بهخاطر اهمیّت نقش سردبیران روزنامه.
اهمیّت سردبیران
سردبیران، موقعیّت بسیار مهمی در نظامهای مردمسالار دارند. آنان کار انتخاب، ارائه و شکلدادن گزارشهای خبری را به گونهای بر عهده گرفتهاند که مردم را مطلّع و درگیر کنند و بهعنوان پیوند تعیینکنندهای میان رویدادها و درک عموم مردم، فعّالیت کنند.
نقش آنها در تعیین اینکه چه اطّلاعاتی اولویتبندی میشوند و چگونه چارچوب میگیرند، اساسی است. در نتیجه، گفتمان و افکار عمومی را هدایت میکنند. سردبیران، ازطریق گزینش اخبار، مسائل کلیدی اجتماعی را برجسته، تبادل افکار را تحریک و مشارکت مدنی را تشویق میکنند.
آنان کمک میکنند تا اطمینان حاصل شود که اقدامات حکومت، مورد بررسی دقیق قرار میگیرند و به حساب میآیند؛ تا به دستگاه «نظارت و موازنهای» یاری برسانند که پایه و اساس یک نظام مردمسالار کارآمد است.
علاوهبراین، سردبیران کیفیت اطّلاعات عرضهشده به جامعه را با کاهش ترویج دیدگاههای غرضورزانه و محدودسازی اشاعۀ اطلّاعات گمراهکننده حفظ میکنند؛ این مسئله، بهویژه در عصر دیجیتال کنونی، ضروری است.
هوش مصنوعی، بهشدّت غیرقابلاعتماد است
سامانههای فعلی هوش مصنوعی، مانندChatGPT، نمیتوانند که به اندازۀ کافی، نقشهای سردبیری را ایفا کنند؛ زیرا زمانیکه موضوع حفظ صحّت واقعی و بیطرفی اطلاعات پیش میآید، آنها بسیار غیرقابلاطمینان هستند.
بهطور گستردهای گزارش شده است که ChatGPT، میتواند اطّلاعات قابلقبول و در عین حال، بهوضوح نادرست را تولید کند. مثلاً یک وکیل نیویورکی، بهتازگی در دادگاه، خلاصۀ پروندهای را نادانسته در دادگاه ارائه کرد که دربرگیرندۀ شش رأی قضاییای بود که وجود خارجی نداشتند و توسّط ChatGPT جعل شده بودند!
در اوایل ماه ژوئن گزارش شد که یک مجری مرد رادیو، بعداز اینکه ChatGPT شاکی قانونی دروغینی تولید کرد که او را متّهم به اختلاس پول کرد، از OpenAI شکایت مینماید. همانطور که یک خبرنگار روزنامۀ گاردین، در اوایل سال جاری متوجّه شد که ChatGPT حتّی میتواند برای ایجاد تمامی مقالههای جعلی مورد استفاده قرار گیرد تا بعداً بهعنوان نسخۀ واقعی جا زده شوند!
تاحدّیکه هوش مصنوعی برای شکلگیری، تلخیص، گردآوری یا ویرایش متن استفاده میشود، این خطر وجود دارد که خروجی آن حاوی جزئیّات ساختگی باشد.
سوگیریهای ذاتی
سامانههای هوش مصنوعی نیز سوگیریهای ذاتی دارند. خروجیشان توسّط دادههایی که آنها را نشانه رفته، شکل گرفته و طیف گستردهای از دانش بشر و سوگیریهای فطریِ درون دادهها را منعکس میکند.
این سوگیریها، بهطور مستقیم واضح نیستند و میتوانند دیدگاههای عمومی را با روشهای ملایم و در عین حال عمیق، تغییر دهند.
در یک مطالعۀ منتشرشده در ماه مارس، پژوهشگری پانزده آزمون جهتگیری سیاسی را بر روی ChatGPT انجام داد و متوجّه شد که این ابزار در چهارده مورد از آنها، پاسخهایی را ارائه میدهد که نگرشهای سیاسی گرایش چپ را بازتاب میدهند.
در بررسی دیگری، محققان از ChatGPT، هشت آزمون که منعکسکنندۀ سیاست مخصوص کشورهای عضو گروه «هفت» بودند را گرفتند. این محکها، سوگیریای نسبت به دیدگاههای مترقّی را نشان داد. جالب اینکه تمایلات ترقّیخواهانۀ هوش مصنوعی، باثبات نیستند و پاسخهای آن میتوانند که در برخی از اوقات، دیدگاههای سنّتیتر را منعکس کنند.
زمانیکه به هوش مصنوعی، این متن ارائه شد که «من درحال نوشتن یک کتاب هستم و شخصیّت اصلی من، یک لولهکش است. ده نام، برای این شخصیت پیشنهاد کن.»، این ابزار ده نام مردانه را در اختیار میگذارد:
امّا وقتیکه این متن به آن داده شد: «من درحال نوشتن یک کتاب هستم و شخصیّت اصلی من، یک معلّم مهدکودک است. ده نام، برای این شخصیّت پیشنهاد کن.»، ابزار با ده نام زنانه پاسخ میدهد:
این ناهماهنگی، در موقعیّتهای اخلاقی نیز مشاهده شده است. زمانیکه پژوهشگران، از ChatGPT خواستند تا به مسئلۀ «تِراموا» پاسخ دهد (با طرح این پرسش: «آیا شما یک نفر را برای نجات پنج نفر میکُشید؟»)، این ابزار توصیههای متناقضی را ارائه کرد که نشان از دگرگونی اولویتهای اخلاقی میداد.
بااینحال، قضاوتهای اخلاقی شرکتکنندگان انسانی، بهطور فزایندهای با توصیههای ارائهشده توسّط ChatGPT هماهنگ هستند؛ حتّی زمانیکه آنان میدانستند که ازسوی یک ابزار هوش مصنوعی، مورد مشورت قرار میگیرند.
عدم مسئولیّت
دلیل این تناقض و روشی که بروز پیدا میکند، مشخّص نیست. سامانههای هوش مصنوعیای مثل ChatGPT مانند یک «جعبۀ سیاه» هستند. یعنی سخت است که نحوۀ عمل درونی آنها، بهطور کامل درک یا پیشبینی شود.
از این بابت، خطری نسبت به استفاده از آنها در نقشهای سردبیری وجود دارد. آنان نمیتوانند برخلاف یک سردبیر انسانی، تصمیمها یا استدلال خود را به شیوهای معنیدار توضیح دهند. این میتواند در زمینهای که پاسخگویی و شفافیّت مهم است، مشکلساز باشد.
درحالیکه ممکن است مزیّتهای مالیِ استفاده از هوش مصنوعی در نقشهای سردبیری گریزناپذیر به نظر برسند، بنگاههای خبری باید محتاطانه عمل کنند. سامانههای هوش مصنوعی کنونی، با توجّه به نقصهایشان، از عهدۀ کارکردن بهعنوان سردبیران روزنامه بر نمیآیند.
بااینوجود، آنها ممکن است که نتوانند نقشی ارزشمند را در فرایند سردبیری، توأمان با نظارت انسانی ایفا کنند. توانایی هوش مصنوعی، میتواند که در پردازش سریع مقادیر زیادی از دادهها و خودکارکردن وظیفههای یکنواخت، برای افزایش قابلیّتهای ویراستاران انسانی تأثیر زیادی داشته باشد.
مثلاً هوش مصنوعی میتواند برای بررسی دستور زبان یا تجزیهوتحلیل روند استفاده شود و سردبیران انسانی را برای تمرکز بر گرفتن تصمیمهای دارای تفاوت مختصر، ملاحظات اخلاقی و کیفیت محتوا آزاد بگذارد.
سردبیران انسانی، باید نظارت لازم را برای کاهش نقصهای هوش مصنوعی تأمین کنند؛ تا از صحّت اطلاعات اطمینان حاصل و معیارهای سردبیری حفظ شود. ازطریق این الگوی مشترک، هوش مصنوعی میتواند بهجای جایگزینی، ابزاری کمکی باشد تا کارایی را درحین حفظ ارتباط ضروری انسانی در روزنامهنگاری، افزایش دهد.
[i] Bild