دانشگاههای متعددی در سرتاسر جهان پیرامون هوش مصنوعی تحقیق میکنند. شرکتها و سازمانهایی همچون Allen Institute و غولهای فناوری همچون گوگل و فیسبوک را هم به فهرست محققان این حوزه اضافه کنید. نتیجهی تحقیقات همهجانبه، به احتمال زیاد در آیندهی نزدیک به ظهور یک هوش مصنوعی میانجامد که از لحاظ پیچیدگی ادراک و شناخت، نزدیک به حیواناتی همچون موش و سگ خواهد بود. اکنون نوبت به این مسئله رسیده است که چرایی و چگونگی اجرای حفاظتهای اخلاقی را برای هوش مصنوعی بررسی کنیم. آیا هوش مصنوعی نیز استحقاق حفاظتهای قانونی اهداشده به حیوانات را دارد؟
بحثهایی که تاکنون پیرامون «حقوق هوش مصنوعی» یا «حقوق رباتها» بیان شدهاند، عموما به تعهدات و وظایف اخلاقی هوش مصنوعی با هوشیاری در سطح انسان یا بالاتر اشاره دارند. بهعنوان مثال میتوان به نمونههای سینمایی همچون حقوق درویدها در سری فیلمهای استار ترک یا شخصیت دولورس در سریال وستورلد اشاره کرد. منتهی تفکر در این مسیر، ظاهرا شروع صحیحی برای بررسی چالش نخواهد بود و شاید پیامدهای اخلاقی عظیمی بههمراه داشته باشد.
بشر احتمالا در آیندهی بسیار نزدیک به هوش مصنوعی با پیچیدگی هوش انسانی دست پیدا نخواهد کرد؛ هوشی که نیازمند بررسیهای اخلاقی شبیه به انسان باشد. ازطرفی، ساختن هوش مصنوعی با پیچیدگی نزدیک به هوشی پایینتر از انسان، دور از انتظار نیست. درنتیجه باید ملاحظاتی با سطح پایینتر از مسائل اخلاقی انسانی برای آنها در نظر گرفته شود.
امروزه احتیاط بالایی پیرامون چگونگی انجام تحقیق با استفاده از حیوانات مدنظر قرار میگیرد. بهعنوان مثال کمیتههای حفاظت از حیوانات، پروپوزالهای تحقیقی را بررسی میکنند تا هیچگونه کشتار یا شکنجهی غیرالزامی در جریان تحقیقات روی آنها انجام نشود. اگر در برخی از تحقیقات پزشکی، سلولهای بنیادی انسانی یا مهمتر از آن، سلولهای مغزی انسانی دخیل باشند، نظارت و بازرسیهای عمیقتر نیز میشود. درواقع تحقیقات زیست پزشکی تحت بررسیهای موشکافانهی عمیقی انجام میشوند. درمقابل، تحقیقات هوش مصنوعی که شاید مستلزم برخی از همان ریسکهای اخلاقی بالا باشند، تحت هیچگونه بررسی قانونی یا سازمانی قرار ندارند. برخی کارشناسان میگویند شاید این تحقیقات هم به چارچوبهای اخلاقی بیشتر نیاز داشته باشند.
در نگاه اول بهنظر میرسد هوش مصنوعی تا زمان دستیابی به هوشیاری واقعی، نیازی به حفاظتهای اخلاقی نداشته باشد. منظور از هوشیاری واقعی، جریانی هوشمندانه از تجربه با لذت و رنج واقعی است. چنین تصوری منطقی بهنظر میرسد، اما بههرحال یک سؤال بیپاسخ در آن وجود دارد: ما چگونه میتوانیم از ساختن هوشی با توانایی تجربهی واقعی مطمئن شویم؟ بله، اگر هوش مصنوعی ساختهشده مانند دولورس یا دیگر شخصیتهای فیلم و سریال باشد، توانایی شکایت کردن و دفاع کردن از خود را خواهد داشت و قطعا پیرامون حقوق خود، بحث و مجادله میکند. ازطرفی اگر هوش مصنوعی توانایی تکلم را نداشته (مانند موش و سگ) یا بههر دلیلی قادر به ابراز نظر پیرامون حالتهای درونی خود نباشد، توانایی اعلام رنج کشیدن را نیز نخواهد داشت.
چالشی که در بالا مطرح شد، یک پیچیدگی را در بررسیها پیرامون هوش مصنوعی ایجاد میکند. مطالعات علمی پرامون هوشیاری، هنوز اجماعی برای تعریف هوشیاری ندارند. درواقع هنوز نمیتوانیم وجود یا عدم وجود هوشیاری را تعریف کنیم.
چالش اصلی، نبودن اجماعی برای تعریف هوشیاری است
هوشیاری در برخی از دیدگاههای لیبرال تنها نیازمند توانایی پردازش اطلاعات با سازماندهی مناسب است. بهعنوان مثال میتوان به مدلهای اطلاعاتی انعطافپذیر یک سیستم در ارتباط با اجسام موجود در محیط اشاره کرد؛ مدلهایی که دارای ظرفیتهای هدایتشدهی توجه و برنامهریزیهای عملیاتی بلندمدت هستند. دنیای علم احتمالا در شُرف دستیابی به چنین هوشیاری قرار دارد.
تعریف هوشیاری در دیدگاههای محافظهکارانه نیازمند قابلیتهای زیستی خاصی است. بهعنوان مثال میتوان به مغزی شبیه به مغز پستانداران با جزئیات ساختاری سطح پایینتر اشاره کرد. قطعا پیشرفتهای علمی حتی به ساختن چنین هوشیاری نزدیک هم نشدهاند.
صحت هیچیک از اظهارنظرهای بالا قابل تأیید یا رد نیست و نمیتوان هیچکدام را بر دیگری برتر دانست. ازطرفی اگر دیدگاه لیبرال را صحیح در نظر بگیریم، بهزودی توانایی ساخت هوش مصنوعی پایینتر از انسان را در مقیاس فراوان خواهیم داشت که به حفاظت اخلاقی نیاز دارند. ریسک اخلاقی در همین شرایط خود را نشان میهد.
خطر هوش مصنوعی
مبحث پیرامون ریسکها و خطرهای هوش مصنوعی، عموما روی ریسکهای متمرکز میشوند که شاید فناوریهای هوش مصنوعی جدید برای انسانها ایجاد کنند. بهعنوان مثال میتوان به همان داستانهای علمی-تخیلی اشغال جهان و ازبینبردن نژاد بشر اشاره کرد. در بهترین حالت نیز ریسک در دست گرفتن کنترل نظامهایی همچون نظام بانکی مطرح میشود. خطر انسان برای هوش مصنوعی ازطریق بدرفتاری با آنها، عموما در مباحث پیرامون خطرها مطرح نمیشود.
در هیچیک از مباحث، خطر انسان برای هوش مصنوعی بررسی نمیشود
شاید بررسی کنونی شبیه به داستانهای علمی-تخیلی باشند. ازطرفی محققان و جامعهی فعال هوش مصنوعی در مسیر توسعهی هوش مصنوعی هوشیار یا سیستمهای هوش مصنوعی عظیم هستند. به همین دلیل احتمالا دستیابی به سیستم کاملا هوشیار رخ خواهد داد و باید جنبههای اخلاقی آن نیز در نظر گرفته شود. تحقیقات در آن حوزه، نیازمند بررسیهای موشکافانهی اخلاقی هستند که شبیه به بررسیهای انجامشده در ارتباط با تحقیق روی حیوانات یا نمونههایی از بافتهای عصبی انسان هستند.
حفاظتهای مناسب اخلاقی از نمونههای حیوانی و انسانی در تحقیقات زیستپزشکی، زمانی پیادهسازی شدند که اولین تخلفات جدی اخلاقی در تحقیقات فاش شدند. بهعنوان مثال میتوان به تشریح غیرالزامی حیوانات زنده، جرمهای جنگی نازیها در حوزهی پزشکی و تحقیقات بحثبرانگیز دانشگاه تاسکیگی آمریکا روی بیماری سفلیس اشاره کرد.
دستیابی به هوشیاری مصنوعی واقعی، دور از انتظار نخواهد بود
باتوجه به رخدادهای پیشآمده در گذشته، احتمالا محققان امروزی شانس عملکرد بهتر را نسبت به هوش مصنوعی دارند. بهعنوان راهکارهای کاربردی میتوان به راهاندازی کمیتههای نظارتی برای بررسی و اعتبارسنجی تحقیقات هوش مصنوعی اشاره کرد. کمیتههای آنچنانی دقیقا مانند کمیتههای نظارت بر تحقیقات حیوانی یا سلولهای بنیادی، باید ترکیبی از اعضای دانشمند و غیر دانشمند داشته باشند. طراحان هوش مصنوعی، محققان هوشیاری، اخلاقشناسان و اعضای علاقهمند به مباحث مذکور، باید در کمیتههای نظارتی حضور داشته باشند.
کمیتههای نظارت بر تحقیقات هوش مصنوعی، موظف به تشخیص و بررسی ریسکهای اخلاقی طراحیهای جدید در حوزهی هوش مصنوعی خواهند بود. آنها باید دارای درکی پیچیده و عمیق از مشکلات اخلاقی و علمی پیشرو باشند. درواقع اعضای ناظر باید بتوانند چالشها و ریسکهای اخلاقی را در برابر مزیت پیشبرد تحقیقات، مقایسه و تحلیل کنند.
اگر زمانی کمیتههای نظارت بر تحقیقات هوش مصنوعی تشکیل شوند، احتمالا داوری بر تمامی تحقیقات موجود در این حوزه را در دست خواهند گرفت. البته اکنون هیچیک از تحقیقات ما براساس هیچ تعریفی از هوشیاری به هوشیاری واقعی نزدیک نشدهاند، اما احتمال دستیابی به آن دور از ذهن نیست. درنتیجه شاید بهتر باشد پیش از رد شدن از مرز اخلاقی و ساختن هوشیاری واقعی، برای کنترل چالشهای اخلاقی آن آماده باشیم.