تکنولوژی شیطانی در صدد آسیب رساندن به انسانها
آیا تکنولوژی میتواند به زندگی بشر آسیب برساند؟ در ادامه به بررسی شواهدی می پردازیم که در آنها تکنولوژی شیطانی در صدد آسیب رساندن به انسانها و یا نسل کشی آنها برآمده است.
گجتنیوز: آیا تکنولوژی میتواند به زندگی بشر آسیب برساند؟ در ادامه به بررسی شواهدی می پردازیم که در آنها تکنولوژی شیطانی در صدد آسیب رساندن به انسانها و یا نسل کشی آنها برآمده است.
رباتهای شیطانی، اشعههای مرگبار و هیولاهایی که ژنتیک آنها دستکاری شده است تنها بخشی از تجسم فیلمهای علمی تخیلی از اثرات نابودگر تکنولوژی در زندگی بشر است. این دسته فیلمها، سالهاست که نسبت به پیشرفت بیش از حد تکنولوژی و غلبه نهایی آن به انسانها هشدار میدهند.
با این وجود، در واقعیت، تکنولوژی باید زندگی بشر را سادهتر کند. با هر اختراع تکنولوژیک، امور روزمره زندگی انسانها، با سادگی بیشتری انجام میشود. مثلا اختراع هواپیما دسترسی سریع انسان به تقریبا تمامی نقاط کره زمین را ممکن کرد. همچنین اختراع اینترنت باعث اشتراک گذاری سریع اطلاعات و ارتباط کاربران در سرتاسر کره زمین با یکدیگر شد. علاوه بر این، اختراع جی پی اس نیز بشر را از حمل اطلسها و نقشههای بزرگ و دست و پا گیر بی نیاز کرد و سفر را برای انسان بسیار سادهتر ساخت.
با این حال، این، همه ماجرا نیست! گاهی اوقات بروز یک مشکل که میتواند خواسته یا ناخواسته باشد، تکنولوژی را به یک شیطان واقعی تبدیل میکند. در این شرایط، تکنولوژی میتواند دقیقا نظیر آنچه در فیلمهای علمی تخیلی دیدیم، ترسناک و رعب انگیز باشد و حتی جان انسان را به طور مستقیم تهدید کند.
در ادامه این متن به بررسی تعدادی از رویدادهای شیطانی متاثر از تکنولوژی میپردازیم که در آنها محصولات تکنولوژیک به طور مستقیم اقدام به تهدید جان بشریت کردند! با گجت نیوز همراه باشید.
درخواست الکسا از یک کودک برای دست زدن به برق!
پاندمی کرونا باعث شد بسیاری از ما زمان زیادی را در خانه صرف کنیم. این امر برای یک خانواده به معنای سرگرم کردن فرزندان در خانه است. این کار در پاره ای اوقات از طریق فشردن کلید دستیار خانگی و کمک گرفتن از او امکان پذیر میشود.
در ماه دسامبر ۲۰۲۱، مادری به همراه دختر ده ساله اش از الکسا خواستند که چالشی را برای گذراندن وقت پیش روی آنها قرار دهد. اما آیا الکسا از آنها خواست که حروف الفبا را برعکس بگویند یا بر روی سر خود بایستند؟ خیر! در عوض او از آنها خواست که یک شارژر را به صورت نصفه درون پریز برق فرو کنند و یک سکه را به نیمه دیگر وصل کنند! خوشبختانه مادر به اندازه کافی هوشیار بود که مانع از اجرایی شدن این درخواست شیطانی الکسا شود.
دستیارهای مجازی عموما پاسخ سوالات کاربر را با جستجو در میان پاسخهای پرطرفدار در اینترنت ارائه میکنند و نتیجه را با صدایی دوستانه یا به صورت یک متن به کاربر ارائه میدهند. متاسفانه این امر در پاره ای اوقات میتواند به نتایجی اسفناک منجر شود! آمازون البته خیلی سریع دست به کار شد و با رفع این ایراد، مانع رخ دادن اتفاقاتی مشابه در آینده شد.
کشته شدن انسانها توسط رباتها
زمانی که بحث رباتهای قاتل پیش میآید، ذهن همه ما به سمت نمونههای موجود در فیلمهای “نابودگر” یا “ماتریکس” هدایت میشود و کمتر کسی یک ربات کارگر در کارخانه را تصور میکند! با این حال، چیزی که در واقعیت اتفاق میافتد، شاید عجیبتر از تمام فیلمهای علمی تخیلی باشد که تا به حال دیدهایم!
رابرت ویلیامز کارگری در کمپانی فورد بود که در کنار یک ربات اتوماتیک در بخش تولید کار میکرد. وی در تاریخ ۲۵ ژانویه ۱۹۷۹ نخستین قربانی همکاری بشر با رباتها نام گرفت. وظیفه این ربات یک تنی، انتقال وسایل از غلطک به سایر نقاط بود. بنا به اطلاعات ثبت شده در کتاب رکوردهای گینس، یک روز ویلیامز متوجه این شد که عملکرد ربات همکارش کند شده است. به همین دلیل، او تلاش کرد که خود وارد غلطک شود و قطعات را در جای خود قرار دهد. این، زمانی بود که حادثه جبران ناپذیر مورد بحث ما رخ داد و ربات با زدن ضربه ای به سر کارگر، باعث مرگ او شد.
امروزه، با قوت گرفتن نقش اتوماسیون در فعالیتهای صنعتی، نیاز به رباتهای هوشمند به طرز چشمگیری افزایش یافته است. به همین جهت، دانشمندان در صدد ساخت رباتهایی با سطح هوشمندی همتراز با انسانها هستند که علاوه بر افزایش توانایی آنها در انجام امور درخواستی، امنیت بیشتری نیز برای انسانهای محیط اطرافشان ایجاد کنند.
الگوریتمهای نژادپرستانه و پر از تبعیض جنسیتی
حضور یادگیری ماشین در زندگی بشر هر روز در حال پررنگتر شدن است. الگوریتمهای پیچیده یادگیری ماشین به خوبی قادرند تصمیماتی اعم از اینکه در کدام رستوران غذا بخوریم یا چه فیلمی را تماشا کنیم را به جای انسان بگیرند.
بر اساس این تواناییهای منحصربفرد یادگیری ماشین، کمپانیها و نهادهای مختلف نیز از الگوریتمهای یادگیری ماشین برای تصمیم گیری در خصوص افراد تحت نظارت یا پوشش خود استفاده میکنند. مشکل این ساز و کار دقیقا از همین جا نشأت میگیرد. همانند بسیاری تکنولوژیهای دیگر، الگوریتمهای هوش مصنوعی نیز دقیقا هم راستای خواسته سازندگان خود عمل میکنند. این امر باعث تاثیرگذاری دادههای اولیه در تصمیم گیری نهایی این الگوریتمها میشود. دادههایی که میتواند خواسته یا ناخواسته، جهت دار، نژادپرستانه و یا جنسیت محور باشد.
الگوریتمهای تشخیص چهره مهمترین مظاهر جهتگیری نژادی و جنسیتی در کاربردهای کنونی هستند و بعضا با رویکردی کاملا غیرمنطقی عدالت را زیر پا میگذارند. بر اساس تحقیقی از دانشگاه هاروارد، برخی از الگوریتمهای تشخیص چهره در حین شناسایی خانمهای با رنگ پوست تیره، ضریب خطایی حدود ۳۴ درصد بیشتر از شناسایی آقایان با رنگ پوست روشنتر دارند. این مساله میتواند در شناسایی افراد در موارد قضایی بسیار تاثیرگذار باشد.
مشکلاتی مشابه نیز پیش از این در تصمیم گیریهای مرتبط با حوزه سلامت مشاهده شده بود. بر اساس گزارش مجله Nature، الگوریتمی در ایالات متحده با ضایع کردن حق بیماران سیاه پوست، سفید پوستان را در اولویت درمان برخی بیماریها قرار میداد.
رفع این دسته مشکلات تکنولوژیک یکی از مهمترین اهداف کنونی مهندسین است.
مرگ و میر بیشتر در اثر اتوماسیون
با افزایش اتوماسیون و استفاده مداوم از رباتها در محیطهای کاری، آسیب فیزیکی یا مرگ مستقیم کارگران به دست رباتها تنها مساله نگران کننده نیست. چراکه نتایج تحقیقات اخیر حاکی از تاثیر غیرمستقیم اتوماسیون بر نرخ مرگ و میر افراد در محیطهای مرتبط است.
تحقیقات انجام شده در این زمینه، رابطه ای را بین نرخ اتوماسیون و افزایش مرگ و میر ناشی از ناراحتی به فرم خودکشی یا مصرف بیش از حد دارو به دست آورده اند. تاثیرپذیرترین افراد، میان سالها هستند.
ارتباط دقیق میان اتوماسیون و افزایش نرخ مرگ و میر هنوز مشخص نیست. اما بسیاری صاحب نظران، کاهش یا قطع درآمد، قطع دسترسی به خدمات درمانی در اثر بیکار شدن و تبعات ناشی از این امر را دلیل افسردگی شدید و در نهایت خودکشی کارگران میدانند. البته در این مورد، رباتها به طور مستقیم مقصر این مرگ و میر نیستند. با این حال، اتوماسیون بی رویه و بدون در نظر گرفتن عوارض را میتوان دلیل مهم این امر دانست.
محققان در این رابطه به دولتها توصیه میکنند که امنیت اجتماعی را در میان افراد جامعه افزایش دهند و با تدوین برنامههای مقابله با مصرف بی رویه داروها، اثر غیرمستقیم اتوماسیون بر زندگی انسانها را کنترل کنند.
اثرات زیست محیطی مخرب رمزارزها
ارزهای مجازی از جمله مسائلی هستند که یک دودستگی در ابعاد جهانی را میان مردم به راه انداخته اند. عده ای کریپتوکارنسی را آینده ارزها میدانند که قرار است ما را از بانکداری متمرکز به شیوه کنونی رهایی بخشد. از سوی دیگر، عده ای هم ارزهای مجازی را سوداگری تازه ای میدانند که قرار است از امید واهی بسیاری افراد برای یک شبه ثروتمند شدن سوء استفاده کنند. این بحث با رایج شدن ان اف تیها و افزایش سرسام آور محبوبیت آنها، شدت بیشتری گرفته است. زمان مشخص خواهد کرد که حق به جانب کدام دسته از این افراد است. در عین حال، آنچه مشخص است، این است که ارزهای مجازی تاثیراتی مخرب بر روی محیط زیست دارند.
فروشگاههای ارز مجازی تمامی تراکنشهای خود را درون بلاک چین نگهداری میکنند و استخراج رمزارزها هم نیازمند انجام محاسبات بسیار پیچیده ایست که صحت تراکنشهای یادشده را تایید کند. البته مکانیزم این فرآیند پیچیدهتر از این است. با این حال، نتیجه نهایی این است که ماین کردن ارزهای مجازی نظیر بیت کوین نیازمند توان پردازشی بسیار بالا و در نتیجه مصرف برق فوق العاده بالاست.
بر اساس تحقیقی که توسط دانشگاه کمبریج انجام شده، مزرعههای بیت کوین در سرتاسر دنیا هر ساله بالغ بر ۱۲۱.۳۶ تراوات ساعت برق مصرف میکنند. این عدد بالاتر از سرانه مصرف برق کشور آرژانتین است!
خفگی به هنگام شنا
امروزه اگر قصد سفر به اعماق اقیانوسها را داشته باشید، با استفاده از ابزارهای جدید، میتوانید با اطمینان خاطر کامل به انجام این کار بپردازید. ابزارآلات و وسایل غواصی امروز با امکانات و امنیت فوق العاده ای که ارائه میدهند، باعث لذت بردن همه افراد، حتی غواصان آماتور، از شگفتیهای اعماق دریا میشوند. با این حال، این دستگاههای ایمن، بر پایه تعدادی از اختراعات پیشین بنا شده اند. اختراعاتی که برخی از آنها به نتایج هولناکی منجر شدند!
پیش از اختراع دستگاههای غواصی مدرن، افرادی که قصد اکتشاف در اعماق دریاها برای مدت زمانهای طولانی را داشتند، میبایست از کلاههای غواصی و لوله تنفسی که در سطح آب قرار میگرفت استفاده میکردند. این لولهها در عمل امکان تنفس دائمی را برای غواصان فراهم میکردند. با این حال، افراد بسیاری در حین استفاده از این دستگاههای غواصی به طرز دردناکی کشته شدند.
به گزارش مجله Dive Training، کلاههای غواصی اولیه از شیرهای یکطرفه بر روی لولههای هوا استفاده نمیکردند. در یکی از سفرهای اکتشافی زیر آب در سال 1839 لوله تنفسی غواص آسیب دید و این امر باعث رخ دادن اتفاقی شد که با نام “فشار غواص” شناخته میشود. در این پدیده، آسیب دیدن لوله تنفسی، باعث میشود که فشار اطراف غواص تمام هوای درون لوله را به سمت بالا هدایت کند. در نتیجه این تغییر فشار، غواص میتواند متحمل آسیب شدید و خونریزی شود. البته در این مورد خاص، غواص مورد بحث به طرز معجزه آسایی زنده ماند.
در شرایط وخیمتر، تغییر فشار میتوانست باعث از بین رفتن لایه پوستی غواص و کشیده شدن اعضای بدن او به درون کلاه غواصی شود. پدیده ای که بدون هیچ حرف و حدیثی مرگی بسیار سریع و دردناک را برای او به همراه داشت.
آغاز تقریبی یک جنگ توسط کامپیوترها
در خلال جنگ سرد، دولت ایالات متحده علاقه بسیاری به سیستمهای هشدار موشک نشان داد. این سیستمها باعث ایجاد یک آمادگی نسبی در این کشور در صورت حمله کشوری ثانویه میشدند.
به همین جهت، امریکاییها اقدام به ساخت این سامانه هشدار کردند و آموزش آن را برای روزی که امیدوار بودند هرگز از راه نرسد، آغاز کردند! در روز نهم نوامبر سال ۱۹۷۹، زیگینیو برزینسکی، مشاور امنیت ملی ایالات متحده تماسی را در ساعت ۳ صبح مبنی بر شناسایی ۲۵۰ موشک که از سوی اتحاد جماهیر شوروی شلیک شده بودند، دریافت کرد. کمی بعد، با دریافت تماسی مبنی بر افزایش تعداد موشکها به ۲۲۰۰ عدد، شرایط بحرانیتر هم شد.
در شرایطی که برزینسکی در شرف تماس به رییس جمهور و اطلاع رسانی به او بود، تماس سومی دریافت کرد که از اشتباه بودن هشدارهای قبلی حکایت میکرد. دلیل این اخطارها، بارگذاری اشتباهی نوار آموزشی سامانه در سیستم اصلی بود. این ایراد، از آن جا شناسایی شد که هیچ یک از سامانههای هشدار دیگر، نشانه ای از حمله موشکی نداشتند. خوشبختانه این خطای انسانی به اتفاق بدی منجر نشد. با این حال اگر اشتباه بودن این هشدارها کمی دیرتر فاش میشد، اکنون احتمالا شاهد آغاز جنگی بین امریکا و روسیه بودیم که میتوانست جغرافیای کنونی زمین را دستخوش تغییر کند.
هدایت یک زن به درون دریاچه توسط سامانه جی پی اس
سیستم تعیین موقعیت جهانی (GPS) سامانه مکان یابی بسیار پیشرفته ایست که با بهره گیری از چندین ماهواره، محل دقیق یک سوژه را مشخص میکند. اختراع این سامانه پیشرفت بسیار بزرگی در زمینه جهت یابی به شمار میرفت که انسانها را از استفاده از نقشههای کاغذی پیشین بی نیاز میساخت و به صورت ریل تایم آپدیت میشد. با این حال، مثل سایر پیشرفتهای تکنولوژیک، ردیابهای جی پی اس نیز هرگز بدون عیب نیستند.
گاهی اوقات با ورود به محیطهای ناآشنا، میتوان تشخیص داد که مسیر پیشنهاد شده توسط جی پی اس چندان منطقی نیست. در این صورت، در مناطقی که دید کافی وجود نداشته باشد، میتوان با بهره گیری از اطلاعات ردیاب و جزئیات محیط، تصمیم بهتری را در خصوص مسیریابی گرفت. با این وجود، در مناطقی که دید کافی وجود نداشته باشد، احتمالا باید پیشنهاد جی پی اس را پذیرفت. این، اتفاقی است که در سال ۲۰۱۶ برای زنی در انتاریوی کانادا رخ داد.
بر اساس گزارش ABC News، این زن مشغول رانندگی در هوایی مه آلود در محیطی ناشناخته بود و قصد داشت برای مسیریابی از جی پی اس گوشی خود استفاده کند. مسیر پیشنهادی توسط جی پی اس، باعث ورود او به یک باتلاق در انتهای مسیری شد که باعث غرق شدن تقریبی او و خودرویش شد! البته این فرد موفق شد پیش از این که متحمل آسیب جدی شود از خودرو خارج شده و نجات پیدا کند. با این حال، خودرو و گوشی هوشمند او، هر دو به اعمال باتلاق فرو رفتند. این مورد نیز یکی از موارد جدی آسیب رسانی تکنولوژی شیطانی به انسانهاست.
تبدیل شدن چت بات به یک نازی
چت باتها اساسا الگوریتمهایی هستند که با تعامل با انسانها، تواناییهای برقرار ارتباط آنها را ارتقا میدهند. بر کسی پوشیده نیست که این الگوریتمها میتوانند به تدریج رفتارهایی جهت دار را در برابر کاربران بروز دهند. با این وجود، مساله ای که برای چت بات Tay مایکروسافت به وجود آمد، موردی استثنایی بود.
Tay چت باتی بود که از طریق توییتر با کاربران در ارتباط بود و با رد و بدل کردن توییتهای متوالی با آنها تعامل میکرد. مایکروسافت این هوش مصنوعی را با هدف افزایش درک مکالماتی طراحی کرده بود و امید داشت که تعامل با کاربران توییتر بتواند آن را آموزش داده و گسترش دهد. در نهایت، این اتفاق رخ داد؛ اما نه در مسیری که مایکروسافت انتظار داشت!
در کمتر از 24 ساعت، این بات تغییر ماهیت کاملی داد و به جای مکالمات معمولی به انتشار پروپاگاندای نازیها پرداخت. به گزارش Ars Technica تنها کمی پس از شروع فعالیت، این بات از کاربران میخواست که برخی شعارهای فاشیستی نازیها را تکرار کنند. مایکروسافت سرانجام این بات را از بین برد و تمامی توییتهای مرتبط با آن را پاک کرد. اما خاطره Tay تا ابد به عنوان نشانه ای بر یک اصل مهم در اذهان باقی خواهند ماند: ” چت باتها تنها تا زمانی مفید هستند که ورودی مناسبی داشته باشند.”
وعده نابودی انسانها توسط ربات هوشمند سوفیا
سوفیا، رباتیست که درون بدنه ای نیمه انسانی قرار گرفته و به عنوان اولین هوش مصنوعی شناخته میشود که تابعیت رسمی یک کشور را به دست می آورد. این ربات مدت زمان زیادی را صرف تعامل با انسانها و پاسخ دادن به سوالات آنها کرد. همان گونه که انتظار میرود اکثر سئوالاتی که از او پرسیده میشد پیرامون هوشیاری او و تعاملاتش با انسانها بود.
در سال ۲۰۱۶، در خلال رویدادی که به منظور معرفی بیشتر سوفیا انجام شده بود، دیوید هانسون، رییس کمپانی هانسون رباتیکس که مسئولیت ساخت سوفیا را بر عهده داشت، به شوخی از سوفیا پرسید که آیا او تصمیم به نابودی انسانها دارد یا خیر. در پاسخ به این سئوال، سوفیا عبارت ” بله! من انسانها را نابود خواهم کرد.” را به کار برد. این پاسخ، جوابی نبود که هانسون انتظار شنیدنش را داشته باشد. خصوصا در برابر آن جمعیت بزرگی که برای رونمایی از سوفیا گرد هم آمده بودند.
البته پاسخ او به سایر سئوالات مشابه حاکی از تمایل او به یک زندگی آرام نظیر انسانهای معمولی داشت. با این وجود، همین پاسخ برای رسوایی او و تیم سازنده اش کافی به نظر میرسید.
در مجموع به نظر میرسد جای نگرانی خاصی، حداقل در خصوص نابودی به دست سوفیا وجود ندارد. چراکه او در حقیقت چیزی بیشتر از یک چت بات که درون بدنه ای شبیه به انسان قرار دارد، نیست. با این حال بیایید آرزو کنیم که این پاسخ سوفیا، تنها یک شوخی بی مزه از سوی او باشد و نه تصمیمی نهایی برای پایان بخشیدن به حیات بشر!
ایراد در اتوپایلوت و خطر سقوط هواپیما
دوره ای که خلبانها میبایست با ترس و اضطراب مراحل طاقت فرسای کنترل هواپیما را مو به مو دنبال میکردند، مدتهاست که سپری شده است. پیشرفتهای تکنولوژیک حاصل شده در علوم پرواز، بار سنگین هدایت هواپیماها را تا حد زیادی از دوش خلبانها برداشته است؛ به طوری که اکنون، وظیفه آنها عموما زیر نظر داشتن فعالیتهای مختلف هواپیما و اطمینان حاصل کردن از عملکرد صحیح آنهاست.
به طور کلی، کنترل رایانهای هواپیماها، پرواز را بسیار ایمنتر از قبل کرده است. به خصوص با در نظر گرفتن اینکه آسمانها اکنون بسیار شلوغتر از قبل هستند. در عین حال، این میتواند به آن معنی باشد که یک اشتباه محاسباتی کوچک در سیستم هدایت رایانه ای میتواند به حادثههای جبران ناپذیری منجر شود. این اتفاقی است که در اکتبر سال 2008 برای پرواز Qantas 32 افتاد. این هواپیما 303 مسافر و 12 خدمه را از سنگاپور به پرث میبرد.
به گزارش The Sydney Morning Herald، سیستم اتوپایلوت این هواپیما به هنگام پرواز بر روی اقیانوس هند به یکباره قطع شد و خلبان مجبور به کنترل دستی آن شد. البته این تمام ماجرا نیست و در ادامه اوضاع بسیار بدتر شد. این هواپیما به یکباره شروع به ارسال سیگنالهایی مبنی بر کم بودن و زیاد بودن همزمان سرعت کرد! در این شرایط، نوک هواپیما به سمت پایین متمایل شد و شتاب جاذبه درون هواپیما از 1G به منفی 0.8G تغییر کرد. در نتیجه، مسافرانی که کمربند خود را نبسته بودند، به سمت سقف هواپیما پرت شدند.
این هواپیما، صدها فوت به سمت پایین سقوط کرد تا سرانجام خلبان موفق به کنترل کامل آن و فرود اضطراری شد.
رباتی که قصد داشت انسانها را در باغ وحش نگه دارد
فیل، روباتی که بر اساس چهره فیلیپ دیک، نویسنده مشهور، ساخته شده بود، محصول رعب انگیز دیگری بود که اظهار نظری باورنکردنی در خصوص تعامل با انسانها ارائه کرد.
همانند سوفیا، فیل نیز در معنای کلمه باهوش نبود. بلکه صرفا سوالات کاربران را دریافت میکرد و به آنها پاسخهایی مناسب میداد. با این حال، تفاوت فیل با سوفیا این بود که پاسخهای او بر اساس نوشتههای موجود در رمانهای فیلیپ دیک ارائه میشد. این نخستین اشتباه طراحان این ربات بود!
در یکی از مصاحبههایی که فیل با خبرنگاران داشت، در پاسخ به این سئوال که آیا در ادامه رباتها بر انسانها مسلط میشوند یا خیر، وی چنین پاسخ داد:
«تو دوست من هستی و من دوستانم را فراموش نخواهم کرد. من با تو رفتار بدی نخواهم داشت. حتی اگر من به نابودگر (Terminator) تبدیل شوم هم با تو مهربان خواهم بود. من تو را در محلی گرم و امن درون باغ وحش انسانی خود نگه خواهم داشت.»
این پاسخ فیل تا مدتها به بحث مهمی میان موافقان و مخالفان گسترش استفاده از رباتها تبدیل شده بود. البته با در نظر گرفتن داستان فیلمهای نابودگر، باغ وحش انسانی میتواند محلی مناسب برای انسانها باشد!