نگرانی فزاینده پلیس اروپا درباره ی ظهور جرائم رباتیک در آینده نزدیک
لیمو بلاگ: سازمان پلیس اتحادیه اروپا در گزارشی تازه نسبت به ظهور موج نوظهور جرائم مبتنی بر روبات های مجهز به هوش مصنوعی و سامانه های خودمختار گوشزد نمود.
به گزارش لیمو بلاگ به نقل از مهر؛ تحول در سامانه های خودران و روبات های انسان نما طی سالهای اخیر، از حوزه های آزمایشگاهی و صنعتی عبور کرده و به میدان های واقعی عملیات و زندگی روزمره رسیده است. تجربه پهپادهای خودمختار در جنگ های معاصر، خصوصاً در جبهه های درگیری روسیه و اوکراین، نشان داده است که فناوری های مبتنی بر هوش مصنوعی نه فقط توان نظامی را دگرگون می کنند، بلکه مرزهای اخلاق، مسئولیت و انتساب کنش را هم مبهم می سازند. در چنین شرایطی، پرسش اصلی دیگر صرفا به جنگ محدود نمی ماند. گزارش تازه لابراتوار نوآوری نهاد پلیس اروپائی یوروپل، چشم اندازی را ترسیم می کند که در آن قابلیت های خودکار و نیمه خودکار، به دست شبکه های جنایی و تروریستی می افتد و کیفیت تهدیدات داخلی را متحول می کند. در این روایت، افق ۲۰۳۵ یک نقطه دوردست نیست. گزارش تاکید می کند که نشانه های انقلاب فناورانه از هم اینک وجود دارند. از افزایش مشاهده پهپادهای مورد استفاده در زیرساخت های اروپائی تا ایجاد بازارهای آنلاین برای عرضه خدمات هدایت پهپاد که به ادعای گزارش، الگوی «جرم به عنوان خدمت» را به سوی «جرم از راه دور» سوق می دهد. مساله کلیدی اینست که وقتی ابزارهای پیچیده، ارزان و در دسترس شوند، هم هزینه ارتکاب جرم کاسته می شود و هم نسبت کشف و انتساب دشوارتر می شود. از همین روی، نیروی پلیس نه فقط باید با فناوری روبرو شود، بلکه باید قواعد مسئولیت، استانداردهای اثبات و سازوکارهای پاسخ را هم بازطراحی نماید.
از سلاح در میدان نبرد تا ابزاری برای ارتکاب جرایم شهری
متن گزارش یوروپل بر پیوند میان دو روند عادی شدن استفاده از سامانه های خودکار در میدان های درگیری و سرریز تدریجی همان ابزارها به حوزه جرایم سازمان یافته و تروریسم تاکید دارد. این سرریز الزاماً به مفهوم انتقال مستقیم تسلیحات پیشرفته نیست، بلکه انتقال دانش عملیاتی، مهارت های فنی، قطعات، الگوهای تاکتیکی و حتی نیروی انسانی آموزش دیده را شامل می شود. هنگامی که پهپاد به ابزار روزمره جنگ تبدیل می شود، در مرحله بعد، منطق بهره برداری از آن به حوزه های غیرنظامی راه می یابد. این انتقال، همان نقطه ای است که نظم عمومی با یک تهدید چندلایه مواجه می شود؛ تهدیدی که بصورت توأمان فیزیکی و سایبری است و همزمان ماهیتی محلی و شبکه ای دارد. در همین چارچوب، گزارش هشدار می دهد که تا سال ۲۰۳۵ پلیس باید با پدیده «ارتکاب جرایم توسط روبات ها» مواجه شود. منظور از این عبارت، صرفا ارتکاب جرم با روبات به عنوان ابزار نیست، بلکه طیفی از سناریوها را در بر می گیرد؛ از پهپادهایی که در سرقت و عملیات تخریبی به کار می روند تا خودرو های خودران که در اثر سوءاستفاده یا حمله سایبری می توانند باعث صدمه به عابران شوند. گزارش در این بخش به نکته ای واقع گرایانه اشاره می کند: رخدادهای صدمه زا پیرامون خودرو های خودران، در مقطع کنونی و حال حاضر هم مشاهده می شوند. بدین سبب بخش مهمی از هشدار یوروپل، بر «تسریع» و «گسترده شدن» مساله ای موجود تمرکز دارد و بر وقوع یک امر بطورکامل ناشناخته مبتنی نیست.
پیچیدگی روبات انسان نما و دشواری تشخیص اهداف
اگر پهپادها و خودرو های خودران را بتوان در چارچوب ابزارهای نسبتاً شفاف تحلیل کرد، روبات انسان نما یک لایه پیچیدگی جدید به این پروسه می افزاید. گزارش تصریح می کند که روبات های انسان نما می توانند طوری طراحی شوند که تعامل پیچیده تری با انسان داشته باشند و همین ویژگی، تشخیص رفتار عمدی از اقدامات تصادفی را دشوارتر می سازد. در عمل، هرچه تعامل طبیعی تر و انسانی تر شود، «برداشت انسانی» از کنش هم نقش پررنگ تری می گیرد و خطای ادراکی محتمل تر می شود. در چنین وضعیتی، مساله پلیس فقط مهار یک دستگاه الکترونیکی نیست و چالش اصلی فهمیدن «قصد» و «زنجیره کنترل» بحساب می آید. بعبارت دیگر، پاسخ به این پرسش که آیا یک رفتار خطرناک ناشی از دستور هدفمند در چارچوب حمله سایبری بوده است یا پیامد نقص فنی یا خطای یادگیری سامانه، اهمیت مضاعفی می یابد. این نکته در سطح حقوقی هم دستاوردهای بسیاری در بر دارد. چونکه نظام عدالت کیفری، بصورت سنتی بر انتساب قصد و تقصیر بنا شده است. وقتی یک سامانه به ظاهر خودمختار کنشی انجام می دهد، تعیین فرد مسئول نیازمند بازسازی دقیق مسیر تصمیم گیری است. مسیری که می تواند میان کاربر، تولیدکننده، ارایه کننده نرم افزار، کاربر و مهاجم سایبری تقسیم شود. گزارش یوروپل با برجسته کردن همین ابهام، عملا مدعی می شود که تخصص های فنی صرف برای آینده کافی نخواهد بود و باید توان تحلیل انتسابی و فنی توأمان شکل بگیرد.
ربات های درمانی صدمه پذیری انسان در حساس ترین نقطه
یکی از هشدارهای برجسته گزارش، مساله ورود هوش مصنوعی و روبات ها به حوزه سلامت است. بر همین اساس، اگر روبات هایی مورد استفاده برای کمک در محیط های درمانی، هک شوند، نه فقط یک دارایی فناورانه را در معرض خطر می گذارند، بلکه بیمار را در وضعیت صدمه پذیری مستقیم قرار می دهند. معنای این گزاره، پیشرفت سطح تهدید از «اختلال در خدمت» به «تهدید ضد جان و سلامت» است. به بیان دقیق تر، وقتی زیرساخت رباتیک در بستر سلامت قرار می گیرد، صدمه سایبری می تواند به دستاوردهای فوری و ملموس فیزیکی منجر شود. این بخش از گزارش، یادآور این واقعیت راهبردی است که پیوند خوردن هوشمندسازی با خدمات حیاتی، سطح ریسک را بصورت کیفی تغییر می دهد. در چنین وضعیتی، امنیت سایبری دیگر یک مساله صرفا فناورانه نیست، بلکه جزئی از ایمنی عمومی و اعتماد اجتماعی می شود. در چنین شرایطی، هر رخداد بزرگ در این عرصه، می تواند هراس عمومی ایجاد نماید و پذیرش اجتماعی نوآوری را عقب براند.
اقتصاد خودکار و انگیزه های جدید برای جرم
گزارش یوروپل همین طور تصویری اجتماعی هم درباره ی مساله جرایم رباتیک ارائه می کند. بر همین اساس، افرادی که بنابراین خودکار سازی شغل خودرا از دست می دهند، امکان دارد برای بقا به طرف جرم گرایش پیدا کنند و در چارچوب های مختلف همچون جرم سایبری، تخریب و سرقت سازمان یافته اقدام نمایند. در این تصویر، هدف حملات می تواند «زیرساخت رباتیک» باشد. این بخش از گزارش یک گزاره قطعی نیست، اما به عنوان یک سناریوی قابل تصور مطرح می شود و اهمیت آن در پیوند دادن سیاست فناوری با سیاست اجتماعی بسیار برجسته است. به زبان سیاست گذاری، اگر اتوماسیون بصورت نامتوازن پیش برود و سازوکارهای حمایت اجتماعی، آموزش مجدد و تبدیل مهارت ها بموقع طراحی نشود، احتمال ایجاد ناامنی اجتماعی پیرامون فناوری بیشتر می شود. حتی اگر این سناریو در نهایت رخ ندهد، صرف طرح آن از طرف نهاد پلیسی اروپا، نشان داده است که مبحث جرم مبتنی بر روبات تنها با ابزارهای انتظامی حل شدنی نیست و به بسته های مکمل اقتصادی و اجتماعی نیاز دارد.
پلیس آینده از تشخیص نقص فنی تا تشخیص حمله هدفمند
علاوه بر همه موارد ذکر شده، یک نیاز عملیاتی هم در قلب هشدار یوروپل قرار دارد. در همین جهت، پلیس باید سریع تکامل یابد تا بتواند میان یک اختلال فنی و یک حمله عمدی تمایز بگذارد. مثال کلیدی گزارش، تصادف یک خودرو خودران است. در وضعیت فرضی، مأمور باید تشخیص دهد که حادثه بر اثر دستور هدفمند ناشی از حمله سایبری روی داده یا صرفا نقص فنی بوده است. این تشخیص، فقط یک داوری فنی نیست. نکته جالب آن که متن گزارش حتی از برخی ابزارهای آینده نگرانه مانند تفنگ های معروف به «RoboFreezer» یا تورهایی اختصاصی مهار پهپاد هم برای رویارویی با جرایم مذکور یاد می کند. به اعتقاد خیلی از کارشناسان، فارغ از اینکه توسعه این ابزارها تا چه حد واقع بینانه یا عملیاتی به حساب می آید، مواجهه با تهدید رباتیک، نیازمند تلفیقی از تجهیزات فیزیکی و قابلیت های سایبری و توان تحلیل داده است. از همین روی، پلیس آینده باید بتواند هم در میدان، یک سامانه پهپادی خودکار را مهار کند و هم در سطح دیجیتال، منشأ کنترل و مسیر فرمان را بازسازی نماید.
شکاف میان سناریوی بدبینانه و موانع فنی و مقرراتی
نکته مهم دیگر در گزارش مذکور و سناریوهای واکنشی نقل شده اینست که خود یوروپل هم بر قطعیت پیشبینی تاکید نمی نماید. سخنگوی این نهاد تصریح کرده است که آینده قابل پیشبینی و قطعی نیست. برخی صاحبنظران هم اعتقاد دارند که پیشبینی درباره ی سال ۲۰۳۵ دشوار است، چونکه فناوری با سرعت تغییر می کند. در کنار این، دیدگاه های تردیدآمیز هم به سناریوهای مطرح شده وجود دارد؛ همچون این که موانع فنی و موانع مقرراتی امکان دارد مانع تحقق سناریوهای بسیار افراطی شود و نباید انتظار داشت که پلیس رباتیک به سرعت در خیابان ها مستقر شود یا روبات ها بطور کامل کار و اشتغال را از بین ببرند. در عین حال، این اختلاف نظرها، بجای آن که از ارزش هشدار بکاهند، آنرا دقیق تر می کنند. مساله اصلی، تحقق دقیق یک تصویر سینمایی نیست؛ بلکه مساله اینست که دامنه فناوری های خودکار در حال افزایش می باشد و جرم و رویارویی با جرم، دیر یا زود از این تحول اثر می پذیرد. حتی اگر بخشی از سناریوهای شدید هیچگاه رخ ندهد، بخش های میانه آن که شامل افزایش سوءاستفاده از پهپادها، اختلال در زیرساخت های هوشمند و پیچیده شدن انتساب و اثبات است، می تواند بطورکامل واقع گرایانه باشد.
پیام راهبردی گزارش امنیت رباتیک به مثابه حکمرانی ریسک
هشدار یوروپل را میتوان به عنوان نوعی دعوت به «حکمرانی پیش دستانه ریسک» فهم کرد. در این چارچوب، سیاست گذار باید هم زمان چند مسیر را دنبال کند. نخست، استانداردسازی امنیت برای سامانه های خودکار و رباتیک خصوصاً در حوزه های حساس دوم، توانمندسازی پلیس و دستگاه عدالت در حوزه ادله دیجیتال، انتساب حمله و تحلیل فنی حوادث سوم، ایجاد سازوکارهای نظارتی و پاسخگویی برای پیشگیری از شکستن حریم خصوصی به بهانه رویارویی با جرم گزاره کلیدی که از زبان مدیر اجرائی یوروپل نقل شده است، نقطه جمع بندی را می سازد. همان گونه که اینترنت و تلفن هوشمند فرصت ها و چالش های مهمی ایجاد کردند، فناوری های خودکار هم همین مسیر را طی خواهند کرد. به بیان دیگر، میتوان فناوری را یک «بستر دوگانه» توصیف کرد که ظرفیت پیشرفت رفاه و ایمنی و با این حال ظرفیت گسترش تهدید را دارد. در این بین، عنصر تعیین کننده، سرعت و کیفیت سازوکارهای امنیتی، مقرراتی و اجتماعی است که همگام با توسعه فناوری شکل می گیرد. سرانجام، گویی جرم مبتنی بر تکنولوژی رباتیک یک برساخته تخیلی نیست، بلکه یک افق محتمل است که رگه های آن از هم اینک مشاهده می شود و در همین جهت، آینده پلیس و آینده امنیت عمومی، به میزان آمادگی دولت ها، صنعت و جامعه مدنی، قبل از وقوع بحران های بزرگ، وابسته است.
منبع: limooblog.ir
این مطلب لیمو بلاگ را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط در لیموبلاگ
نظرات بینندگان لیموبلاگ در مورد این مطلب