• جمعه 14 دی 1403
  • الْجُمْعَة 3 رجب 1446
  • 2025 Jan 03
سه شنبه 11 دی 1403
کد مطلب : 244802
لینک کوتاه : newspaper.hamshahrionline.ir/k5YVv
+
-

اتحاد علیه اخبار جعلی

در نشست مشترك موسسه همشهري و دفتر مطالعات و برنامه‌ريزي رسانه، درباره مهندسي افكار در عصر ديجيتال چه گذشت؟

گروه جامعه

نشست تخصصی نقد و بررسی کتاب «دستکاری در رسانه‌های اجتماعی»که به چاپ سوم رسیده است، با حضور هادی خانیکی استاد علوم ارتباطات، حسین انتظامی معاون توسعه وزارت فرهنگ و ارشاد اسلامی، رضا نوروزپور معاون مطبوعاتی وزارت فرهنگ و ارشاد اسلامی، بشیر معتمدی عضو هیأت علمی پژوهشکده مطالعات فرهنگی و ارتباطات پژوهشگاه علوم انسانی و مطالعات فرهنگی و مترجمان کتاب (عباس رضایی ثمرین و رسول صدرآهنگ) با همکاری موسسه همشهری در دفتر مطالعات و برنامه‌ریزی رسانه‌ها برگزار شد.آنچه اساتید وکارشناسان حاضر در این نشست بیان کرده‌اند را در زیر می خوانید.

نگرانی‌از بالا‌رفتن‌قدرت‌دستکاری‌درجامعه‌پلتفرمی‌

هادی خانیکی، عضو هیأت علمی دانشگاه علامه طباطبایی:  لازم است که از انتشارات همشهری به‌دلیل اینکه چنین مجموعه‌ای را به یک منظومه تبدیل و آن را منتشر کرده، تقدیر کنم. منظومه‌ای از چند کتاب ترجمه‌شده که اگر در کنار هم قرار دهیم، از آن نکات مهمی را متوجه می‌شویم. من نگران بحث سواد رسانه‌ای هستم و باید بگوییم که از سواد رسانه‌ای چه برداشت می‌کنیم؟ آیا منظور این است که ما مالک حقیقی هستیم که دیگران متوجه نمی‌شوند، ما باید کاری کنیم که آنها هم متوجه شوند، ما این مسئله را به‌خوبی درک کرده‌ایم؟ یا سواد رسانه‌ای از آنجا شروع می‌شود که ‌بدانیم مخاطب ما در بسیاری از نقاط بیشتر از ما می‌فهمد؟ یا اینکه در زمین‌های بکری که در اختیار ما قرار داده‌اند، ببینیم که دستکاری و هدایت می‌شود یا خیر؟
بحث نگران‌کننده در جامعه پلتفرمی، بالا‌رفتن قدرت دستکاری است و همه باید علیه اخبار جعلی متحد شوند. این اتفاق حتما باید رخ بدهد اما مگر اخبار جعلی در زمین خالی رخ می‌دهد و فقط با تکنولوژی تبدیل به اخبار جعلی می‌شود؟ جامعه ناراضی و بسته که رسانه‌ها نتوانند نقش نهادمند خود را اجرا کنند، جامعه‌ای مستعد اخبار جعلی است؛ هر زمان که می‌خواهیم خطر اخبار جعلی و خطر سیاستگذاری‌ها را در کنار این اخبار ببینیم، باید بدانیم که از دل سیاست‌های بسته، اخبار جعلی و فرهنگ زیرزمینی متولد می‌شود.
در حال حاضر ما باید توجه کنیم که در عصر بعد از جامعه پلتفرمی به جامعه‌ای رسیده‌ایم که دسترسی به داده‌ها به‌شدت از وضعیت‌های اجتماعی، سیاسی و فرهنگی متأثر شده است. آن مخاطب فعالی که در جامعه شبکه‌ای گمان می‌کردیم‌ شکل گرفته بود، تبدیل به مخاطب منفعل و بی‌دفاع شده است. تحولات فناورانه‌ای که در جای خود باعث گشایش شده بود، جامعه پلتفرمی را شکل داده است. سؤال ما به این بازمی‌گردد که باید آن بخش فناوری و پلتفرم‌ها را ببینیم تا متوجه شویم که ربات‌ها و مهم‌تر از آن انسان‌ها و جامعه چه می‌کنند.
به‌گفته استاد خانیکی «قرار بود که در مورد جنگ روایت‌ها هم صحبت کنیم؛ چرا که برخی روایت‌ها اصلا دیده نمی‌شوند. روایت‌ اینکه ایران کجاست و آیا ایران تنها‌ست یا نیست، بسیار اهمیت دارد. سر نامگذاری یک خیابان چقدر جنگ و دعوای رسانه‌ای رخ داد. چرا روی چند‌قطبی‌سازی سوار می‌شویم؟ به این اعتبار باید تلاش کرد تا روایت‌های گروه‌های به‌حاشیه‌رانده شده و روایت‌های غیررسمی را با کمک‌ رسانه‌ها به روایت رسمی تبدیل کنیم. در بسیاری از جنبش‌های اجتماعی که در هند، مالزی، اندونزی، تونس و... بود، شبکه‌های اجتماعی توانسته اند نقش مثبتی را ایفا‌ کنند.»
تا ترجمه ما قوی نباشد، تألیف ما قوی نخواهد بود. تا وقتی که آثار کمک‌کننده در مطالعه تطبیقی ترجمه نشوند، ما نمی‌توانیم بگوییم که خودمان حرفی برای گفتن داریم. به همین دلیل می‌گویم که وزارت ارشاد و ناشران باید ترغیب شوند که کتاب‌های اصلی ترجمه و بعد منتشر شوند.

اوباش مجازی و نقش نگران‌کننده آنها در جهت‌دهی افکار عمومی

حسین انتظامی، معاون توسعه مدیریت و منابع وزارت فرهنگ و ارشاد اسلامی: تأثیرگذاری جدی شبکه‌های اجتماعی از طریق ربات‌ها برای نخستین‌بار در انتخابات‌۲۰۱۶ آمریکا مطرح شد؛ کمپین دمکرات‌ها معتقد بود روس‌ها از طریق دستکاری در رسانه‌های اجتماعی آمریکایی‌ به نفع ترامپ کار کرده‌اند. پروپاگاندای رایانشی در همه‌پرسی برگزیت‌(بریتانیا) و انتخابات‌ سایر کشورها نیز تکرار و به یکی از چالش‌های دمکراسی تبدیل شد؛ به‌نحوی که بعضی متخصصان از بیم بالا‌بودن احتمال این اختلال، عجالتا تحدید
 آزادی بیان را پیشنهاد کرده‌اند.
دروغ‌پراکنی از طریق رسانه‌های اجتماعی به‌قدری فراگیر شده که مجمع جهانی اقتصاد در سال‌۲۰۱۴ این مسئله را به‌عنوان یکی از ۱۰‌خطر جدی پیش‌روی بشر معرفی کرده است. انتشار ویروس‌گونه اخبار ناخواسته (هرزنامه)، کمپین‌های دروغ‌پراکنی، نشست‌های خبری تاکتیکی هماهنگ‌شده، ربات‌های سیاسی خودکار که گفتمان عمومی را به شکل برخط تحریف می‌کنند و هدف قراردادن نظر افرادی که مستعد پذیرش پیام‌های دستکاری‌شده‌اند، همگی ابزارهای جدیدی از قرن بیست‌و‌یکم هستند.
با توسعه و به‌تدریج سیطره ماشین، چالش‌های جدیدی برای بشر ایجاد شده و همچنان می‌شود؛ به‌طوری که پیش‌بینی‌های تخیلی اما نگران‌کننده آخرالزمانی در ادبیات و سینما را تداعی می‌کند. ترول‌ها (اوباش مجازی) و ربات‌ها و سایبورگ‌ها (اتوماسیون ماشینی با مداخله همزمان انسانی) در شبکه‌های اجتماعی نیز فعالند و در ساخت و جهت‌دهی به افکار عمومی، نقشی نگران‌کننده یافته‌اند.
چالش اصلی این است: چگونه دمکراسی‌ها حین حفاظت از حریم خصوصی باید امنیت را افزایش دهند؟ شاید توسعه سواد رسانه‌ای که مخاطب را از حالت انفعال و پذیرش صرف، بیرون می‌آورد و به او ابزار و توانایی بازشناسی فکت از فیک را می‌دهد تا حدی چاره کار باشد. مخاطب با برخورداری از سواد رسانه‌ای، بصیرت می‌یابد و می‌تواند فیک‌نیوزها و جریان‌سازی‌‌های برساخته از آن را پالایش کند؛ هر چند حکمرانی در عصر جدید نیز در این زمینه، بی‌مسئولیت نیست.
«رسانه اجتماعی» و «رسانه جمعی» 2پارادایم متفاوت هستند؛ در پارادایم نظریه‌ها تعریف می‌شوند و هر یک از این رسانه‌ها پارادایم و نظریه خودشان را دارند. به‌عنوان مثال، در پارادایم رسانه‌های جمعی با توده، طرف هستیم و رسانه‌ها امکان تأثیرگذاری بیشتری دارند. در پارادایم رسانه‌های اجتماعی دیگر چیزی به اسم دروازه‌بانی نداریم. اگر با اصول حاکم بر رسانه‌های سنتی بخواهیم برای رسانه‌های اجتماعی سیاستگذاری کنیم، با اختلال مواجه می‌شویم. درمان بسیاری از دردها از نظر من شفافیت است؛ شفافیت به این معناست که پیش‌بینی‌پذیری داشته باشیم. در فضای جدید رسانه‌ای به‌راحتی می‌شود با اسم مستعار کار کرد. در این حالت مسئولیت‌پذیری کاهش پیدا می‌کند. هر‌قدر به شفافیت دامن بزنیم، نگرانی مسئولیت‌ناپذیری کمتر می‌شود.

پروپاگاندای محاسبه‌گر، جامعه را دوقطبی می‌کند

محمدرضا نوروزپور، معاون مطبوعات وزارت فرهنگ و ارشاد اسلامی: پروپاگاندای رایانشی، مهندسی رفتار مخاطبان از طریق استفاده از الگوریتم‌ها، اخبار فیک، ربات‌ها و ابزارهای خودکار تولید پیام است. حالا سؤال این است که چگونه مهندسی رفتار انجام می‌شود؟ در پاسخ به این سؤال باید گفت که این مهندسی رفتار با استفاده از ویژگی‌های مختلفی شکل می‌گیرد؛ اول اینکه حباب فیلتر برای مخاطب درست می‌کنند، به این ترتیب مخاطب تنها آن موضوعی که مورد پسندش است را می‌بیند و از این طریق با اطلاعات و تحلیل‌هایی که مورد پسندش نیست، اصلا مواجه نمی‌شود.
چند بحث دیگر هم در این حوزه مانند واقعیت موازی و اتاق پژواک وجود دارد که با وجود تفاوت‌های اندک، حرف‌های مشترکی را بیان می‌کنند. تمام این ابزار، شخص را وادار به رفتاری می‌کنند که مهندسان پروپاگاندای محاسباتی یا همان پروپاگاندای رایانشی خواهانش هستند. این ابزارها باعث می‌شوند که افراد در مواجهه با اطلاعات خاص، تنها آنچه را مورد پسندشان است مشاهده کنند و از تحلیل‌های مخالف بی‌خبر بمانند. پروپاگاندای رایانشی به شکلی دست به محاسبه‌گری می‌زند تا فرد مورد نظر، کار دلخواه مهندس پروپاگاندا را انجام دهد. پروپاگاندای محاسباتی به‌ویژه از طریق اخبار فیک و واقعیت‌های موازی، آسیب‌های جدی به واقعیت وارد می‌کند و با ایجاد حباب فیلتر جامعه را دچار تنش می‌سازد.
یکی از دلایل مهم در مورد اتفاقاتی که برای ارتش سوریه رخ داد، مربوط به همین فضاسازی‌ها بود؛ از این طریق برای ارتش سوریه محرز شد که شکست حتمی است. در انتخابات ۲۰۱۶ آمریکا هم شاهد مهندسی ذهن مخاطبان بودیم.
از بین تأثیرات منفی که پروپاگاندای محاسباتی با ایجاد حباب فیلتر و اتاق پژواک رقم می‌زند، یکی از بدترین آثار را باید ایجاد دوقطبی در جامعه معرفی کرد. یکی از کارکردهای اصلی پروپاگاندای رایانشی این است که جامعه را
دو قطبی کند تا از ظرفیت‌های تمام‌عیار هر دو طرف بهره ببرد.زمانی که جامعه دوقطبی شود، انسجام ملی در مرحله اول از بین می‌رود، این اتفاق بسیار خطرناک است. مرگ یک جامعه زمانی رقم می‌خورد که جامعه دو پاره شود و افراد در برابر هم قرار بگیرند.
پروپاگاندای محاسباتی شبیه داستان شیر و خرگوش مولوی در ۸۰۰ سال پیش است، در آن داستان خرگوش برای شیر، واقعیت موازی، اتاق پژواک و حباب فیلتر و فیک نیوز درست می‌کند، چون شیر هر آنچه خرگوش می‌گوید باور می‌کند. در پروپاگاندای رایانشی فیک‌نیوز از اساس کارهاست. در دستکاری رسانه‌های اجتماعی یکی از آفت‌ها و بلایایی که بر سر جامعه ما می‌آید این است که برخی واقعیت‌های موازی درست کرده‌اند و این دشمن‌های موازی، اکت می‌خواهند؛ علیه‌شان رفتار صورت می‌گیرد و جامعه با تنش مواجه می‌شود.

تضعیف روحیه ارتش سوریه با  کمپین اخبار جعلی

رسول صفرآهنگ، مترجم کتاب: پروپاگاندا در ایران با الهیات سیاسی پیوند خورده است. تفسیر سنت و تبدیل آن به ایدئولوژی و بهره‌برداری از تفسیر ایدئولوژیکی در تبلیغات برای تقویت سیاسی، ارتباط پروپاگاندا و الهیات سیاسی را نشان می‌دهد.
باید در جنگ اخیر دولت وقت سوریه با تحریرالشام به نقش کمپین‌های اخبار جعلی در تضعیف روحیه ارتش‌ها و نیروهای سیاسی پرداخت و نسبت به نبود نهادهای مسئول مرتبط با شناسایی اخبار جعلی در ایران، هشدار داد. این در حالی است که اوکراین به‌عنوان نمونه موفق در مقابله با کمپین‌های اخبار جعلی، قبل از آغاز حمله روسیه به این کشور، ساختارهای لازم برای هرگونه عملیات روانی و پروپاگاندا را آماده‌سازی‌ کرده بود؛ مسئله‌ای که به نقطه ضعف
 بشار اسد در حمله تحریرالشام تبدیل شد و کمپین اخبار جعلی توانست تا حد زیادی روحیه ارتش سوریه را تضعیف کند.
پروپاگاندای رایانشی به‌عنوان یک روش ارتباطی، به استفاده از الگوریتم‌ها، فرایندهای خودکار و نظارت انسانی با هدف مدیریت فضای کلی رسانه‌های اجتماعی یا توزیع اطلاعات گمراه‌کننده از طریق این شبکه‌ها اطلاق می‌شود؛ موضوعی که یکی از ابزارهای مهم بازیگران سیاسی برای اثرگذاری بر کنش کشورهای دوست و دشمن است.
محققان از ترکیب روش‌های کمی و کیفی که حاصل تقاطع داده‌های نظری و مشاهده‌ای در چندین رشته به‌ویژه رشته‌های علوم اجتماعی، حقوق، علوم سیاسی و علوم کامپیوتراست به سؤالات تحقیق پاسخ داده‌اند.ابزارهای جمع‌آوری داده‌های تحقیق مولفان به کاربرد آزمون‌های  رگرسیون، R و آزمونK پرداخته و تأکید کرده که استفاده از نرم‌افزار Spss ازجمله ابزارهای جمع‌آوری داده‌های تحقیق بوده که به کمک روش مردم‌نگاری همراه با مصاحبه‌های ساختارمند با مشاوران سیاسی، بنگاه‌های داده‌کاوی و جامعه مدنی قربانیان حملات رایانشی توأم با نظرسنجی و سایر روش‌های سنجش افکار عمومی به‌دست آمده است.

توهم اجماع در شبکه‌های اجتماعی

عباس رضایی ثمرین، مترجم کتاب : در گذشته، مهندسی افکار عمدتا از طریق رسانه‌ها یک‌سویه و با روش‌های سنتی انجام می‌شد. یک پیام از یک منبع مرکزی پخش می‌شد و مخاطبان به‌صورت انبوه آن را دریافت می‌کردند، اما امروز با پدیده‌ای به‌مراتب پیچیده‌تر روبه‌رو هستیم؛ الگوریتم‌ها می‌توانند محتوا را برای هر فرد شخصی‌سازی کنند، ربات‌های اجتماعی می‌توانند تعامل انسانی را با دقت بالایی شبیه‌سازی کنند، هوش مصنوعی می‌تواند محتوای تأثیرگذار تولید کند و سیستم‌های پیشرفته تحلیل داده می‌توانند الگوهای رفتاری کاربران را شناسایی و پیش‌بینی کنند. این یعنی مهندسی افکار در عصر دیجیتال، ظریف‌تر، هدفمندتر و در عین حال گسترده‌تر شده است.
محتوایی که در شبکه‌های اجتماعی می‌بینید، به شکل بسیار دقیقی برای شما شخصی‌سازی شده است؛ الگوریتم‌ها می‌دانند شما به چه موضوعاتی علاقه دارید، چه دیدگاه‌هایی را می‌پسندید و حتی در چه ساعاتی بیشتر تحت‌تأثیر قرار می‌گیرید. اینجاست که «حباب اطلاعاتی» تشکیل می‌شود و نمی‌گذارد درک واقع‌بینانه‌ای از دنیای اطراف خود داشته باشید.
براساس پژوهش‌ها در برخی رویدادهای سیاسی مهم تا ۶۰‌درصد محتوای منتشر‌شده در توییتر توسط ربات‌ها تولید یا بازنشر می‌شود. این ربات‌ها امروزه می‌توانند احساسات انسانی را شبیه‌سازی، در مباحثات شرکت و حتی روابط عاطفی ایجاد کنند. نتیجه این وضعیت، شکل‌گیری «توهم اجماع» است که در آن، کاربران تصور می‌کنند با جریانی طبیعی از افکار عمومی روبه‌رو هستند؛ درحالی‌که در واقع با شبکه‌ای پیچیده از ربات‌ها و الگوریتم‌ها تعامل می‌کنند.
وقتی شهروندان مدام در معرض اطلاعات متناقض قرار می‌گیرند و نمی‌توانند به هیچ منبعی اعتماد کنند، نوعی بدبینی فراگیر شکل می‌گیرد. این بدبینی تنها محدود به رسانه‌ها یا نهادهای رسمی نمی‌شود، بلکه به روابط میان‌فردی نیز سرایت می‌کند. در نتیجه، سرمایه اجتماعی که مهم‌ترین عامل توسعه جوامع است، به‌تدریج فرسایش می‌یابد. در چنین شرایطی، راه برون‌رفت چیست؟ قاعدتا برخلاف آنچه برخی سیاستگذاران تلاش می‌کنند، نمی‌توان و نباید به دوران پیش از انقلاب دیجیتال بازگشت. تجربه جهانی و یافته‌های پژوهشی نشان می‌دهند که محدودسازی و مسدودیت، نه‌تنها راه‌حل نیست؛ بلکه می‌تواند شرایط را پیچیده‌تر کند. در عوض، باید روی چند محور کلیدی مانند سواد رسانه‌ای تمرکز کنیم.


 

این خبر را به اشتراک بگذارید