شنبه 11 بهمن 1404

امین کائیدی شادگان- پژوهشگر و تحلیلگر مسائل ژئوپلیتیک و رسانه‌ای

شکنجه در عصر الگوریتم؛ آیا هوش مصنوعی خطرناک‌تر از بازجو است؟

شکنجه در عصر الگوریتم؛ آیا هوش مصنوعی خطرناک‌تر از بازجو است؟   در جهانی که مرز میان تکنولوژی و قدرت روز‌به‌روز باریک‌تر می‌شود، پرسشی عمیق ذهن بسیاری را مشغول کرده: آیا هوش مصنوعی، این اختراع مدرن، می‌تواند به ابزار شکنجه انسان‌ها بدل شود؟ خبرهایی که از رسانه‌هایی چون شبکه اینترنشنال منتشر می‌شود، از استفاده احتمالی

اختصاصی کرونا

کد خبر : 121994
تاریخ انتشار : شنبه ۲۱ تیر ۱۴۰۴ - ۱۶:۰۷

کرونا :

امین کائیدی شادگان- پژوهشگر و تحلیلگر مسائل ژئوپلیتیک و رسانه‌ای

شکنجه در عصر الگوریتم؛ آیا هوش مصنوعی خطرناک‌تر از بازجو است؟

شکنجه در عصر الگوریتم؛ آیا هوش مصنوعی خطرناک‌تر از بازجو است؟

 

در جهانی که مرز میان تکنولوژی و قدرت روز‌به‌روز باریک‌تر می‌شود، پرسشی عمیق ذهن بسیاری را مشغول کرده: آیا هوش مصنوعی، این اختراع مدرن، می‌تواند به ابزار شکنجه انسان‌ها بدل شود؟ خبرهایی که از رسانه‌هایی چون شبکه اینترنشنال منتشر می‌شود، از استفاده احتمالی دولت‌ها از هوش مصنوعی برای اعمال فشار روانی یا حتی فیزیکی بر بازداشت‌شدگان سخن می‌گویند. اما واقعیت چیست؟ آیا چنین ادعاهایی سندیت دارند؟ و اگر نه، آیا باید نگران آینده باشیم؟

■ شکنجه چیست؟ تعریف حقوقی و روانی
مطابق کنوانسیون سازمان ملل متحد، شکنجه هر نوع عملی است که عمداً برای وارد کردن درد یا رنج شدید جسمی یا روانی با هدف‌هایی چون اعتراف‌گیری، مجازات یا ارعاب انجام شود. این تعریف شامل شکنجه روانی نیز می‌شود؛ جایی که بدون آسیب فیزیکی، روح و ذهن فرد دچار فروپاشی می‌شود.

■ بازجویی سایبری و نقش مدل‌های زبانی
در سال‌های اخیر، برخی نهادهای نظامی مانند پنتاگون، و حتی واحدهای امنیتی در کشورهای دیگر، از سیستم‌های بازجویی خودکار با کمک مدل‌های زبانی بزرگ (LLM) بهره‌برداری آزمایشی کرده‌اند. الگوریتم‌هایی که بدون خستگی و بدون احساس همدردی، ساعت‌ها با بازداشت‌شدگان تعامل می‌کنند، با تکرار سوالات، تشخیص تردیدها، و القای ترس روانی.
پژوهشی در سال ۲۰۲۴ با عنوان “LLM-Enabled Coercive Interrogation” نشان داد که مدل‌های زبان می‌توانند به‌شکل غیراخلاقی برای فرسایش ذهنی افراد به‌کار گرفته شوند؛ بدون ضربه، بدون خون، اما با شکنندگی روان.

■ گزارش سازمان ملل و مفهوم سایبرتورتور
در سال ۲۰۲۰، گزارشگر ویژه سازمان ملل در امور شکنجه، برای نخستین‌بار مفهوم «شکنجه سایبری» یا «Cyber-Torture» را وارد اسناد رسمی کرد. در این گزارش آمده بود: “ترکیب نظارت تمام‌وقت، هشدارهای صوتی/تصویری، الگوریتم‌های تحلیل رفتار و تحریک ذهنی، می‌تواند به ایجاد وضعیتی منجر شود که از منظر روانی معادل شکنجه تلقی گردد.”
این هشدار مشخصاً به پروژه‌هایی مانند «زندان‌های هوشمند» در چین اشاره داشت که با استفاده از دوربین‌های تشخیص چهره، الگوریتم‌های تحلیل چهره و سیستم‌های هشداردهنده صوتی، زندانیان را در حالت دائمی اضطراب نگه می‌دارند.

■ آیا شکنجه فیزیکی با هوش مصنوعی ممکن است؟
تا این لحظه، هیچ سند رسمی و علنی مبنی بر استفاده مستقیم از ربات‌های مجهز به هوش مصنوعی برای شکنجه فیزیکی منتشر نشده است. اما پروژه‌هایی در زمینه بازوهای رباتیک، شوک‌های عصبی، تحریک مغزی و محرک‌های صوتی وجود دارند که پتانسیل سوءاستفاده دارند، اگرچه استفاده از آن‌ها برای شکنجه، در حال حاضر صرفاً در حد نگرانی‌های حقوق بشری مطرح است.

■ افسانه یا آگاهی؟ عملکرد رسانه‌ها
شبکه‌هایی مانند اینترنشنال و برخی رسانه‌های غربی یا شرقی، گاهی بدون استناد روشن، هشدارهایی مبهم درباره تهدیدات AI منتشر می‌کنند. گرچه نقد قدرت و فناوری لازم است، اما ایجاد هراس عمومی بدون سند می‌تواند آسیب‌زننده باشد. خطر اصلی این‌جاست که مردم، یا از فناوری کاملاً بترسند و از آن دور شوند، یا اعتماد بی‌جا به آن پیدا کنند.

■ نتیجه‌گیری: مراقب باشیم، اما هوشیار
هوش مصنوعی در خدمت انسان است، نه جایگزین وجدان و اخلاق انسانی. اگر دولت‌ها و نهادهای قدرتمند از AI برای کنترل و فشار روانی استفاده کنند، مسئولیت جامعه مدنی، رسانه‌ها و نهادهای حقوق بشری این است که هشدار دهند، نه اینکه هراس بی‌پایه ایجاد کنند.
در پایان، باید پرسید: خطر واقعی در کجاست؟ در خود تکنولوژی؟ یا در دست‌هایی که آن را بی‌مهار به‌کار می‌گیرند؟

📎 منابع:
۱٫ گزارش رسمی سازمان ملل درباره شکنجه سایبری (۲۰۲۰)
۲٫ پژوهش LLM-Interrogation در پایگاه arXiv (2024)
۳٫ بیانیه عفو بین‌الملل درباره AI و حقوق بشر (۲۰۲۳)

 

نویسنده:امین کائیدی شادگان- پژوهشگر و تحلیلگر مسائل ژئوپلیتیک و رسانه‌ای

همسو با خبر روز

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

logo-samandehi