به گزارش گروه علم و فناوری باشگاه خبرنگاران دانشجویی(ایسکانیوز)؛ سیستمهای یادگیری ماشینی روز به روز بیشتر راه خود را در زندگی روزمره ما باز میکنند و از سوی دیگر، ارزشهای اخلاقی و اجتماعی ما و همچنین قوانین حاکم بر آنها را به چالش میکشند.
این روزها دستیارهای مجازی، حریم خانه را تهدید میکنند و پیشنهاد کنندههای اخبار (برنامههایی که به کاربران کمک میکنند محتوای آنلاین مورد نیازشان را بیایند و در واقع، توجه کاربران را به سمت اطلاعاتی که برایشان مهمتر است معطوف کنند) درک ما را از جهان شکل میدهند، سیستمهای پیشبینی خطر، به مددکاران اجتماعی گوشزد میکنند که از کودکان در برابر سوءاستفادههای احتمالی محافظت کنند و ابزارهای استخدامی مبتنی بر داده، شانس شما را برای یافتن شغل مورد نظر بالا میبرند. همانطور که متوجه شدید، یادگیری ماشینی با تناقضهایی همراه است و بحث اخلاق در آن هنوز مبهم باقی مانده است.
در اینجا قصد داریم داستان زندگی یک مرد ۳۳ ساله با نام «جاشوا باربیو» را تعریف کنیم که از وبسایتی به نام Project December استفاده میکرد. با کمک این وبسایت یک روبات مکالمه –چتبات- ایجاد کرد تا بتواند مکالمه با نامزد متوفیاش –جسیکا- را شبیهسازی کند.
این نوع چتبات که «مردهبات» یا deadbot نام دارد، به باربیو امکان میدهد که با جسیکای مجازی پیامهای متنی رد و بدل کند. اما سوالی که در اینجا مطرح میشود این است که آیا استفاده از این چتباتهایی که مکالمه انسانها را تقلید میکند، کار اخلاقی است؟
قبل از پرداختن به این سوال، لازم است توضیحاتی داده شود. پروژه «دسامبر» توسط یک توسعهدهنده بازی راهاندازی شد تا افراد بتوانند با چتباتهایی را با شخصیتی سفارشی کنند که میخواهند با آن تعامل داشته باشند. البته بابت این کار باید هزینه پرداخت کنند. این پروژه براساس یک مدل زبان تولید متن است که توسط شرکت تحقیقاتی هوش مصنوعی OpenAI ساخته شده است. این برنامه به گونهای طراحی شده که صراحتا مقاصد جنسی، عاشقانه، آسیب رساندن به خود یا دیگران را ممنوع میکند.
آیا رضایت یک طرفه کافی است؟
با وجودی که جسیکا فوت شده، به نظر میرسد رضایت باربیو به تنهایی برای ایجاد یک روبات مکالمهای که از او تقید میکند، کافی نیست. حتی زمانی که شخص میمیرد، مردم حق این را ندارند که هر طور میخواهند با آنها رفتار کنند. به همین دلیل است که در جوامع مختلف، هتک حرمت یا بیاحترامی به مردگان اشتباه به شمار میآید. به عبارت دیگر، ما نسبت به مردگان نیز تعهدات اخلاقی خاصی داریم؛ تا جایی که مرگ لزوما به این معنا نیست که دیگر از لحاظ اخلاقی وجود ندارند.
به همین منوال، بحث در مورد نحوه محافظت از حقوق اساسی مردگان –مانند حریم خصوصی و دادههای شخصی آنها- همچنان باز است. زیرا توسعه یک روبات مرده که شخصیت یک فرد را تقلید میکند، نیاز به مقادیر زیادی اطلاعات شخصی مانند دادههای شبکه اجتماعی او دارد. اگر قبول داریم که استفاده از دادههای شخصی بدون رضیات در زمان زنده بودن غیراخلاقی است، چرا باید این کار بعد از مرگ اخلاقی باشد؟
به همین دلیل کاملا منطقی به نظر میرسد که رضایت طرف دوم نیز نیاز است.
اگر کاربر مرده رضایت بدهد
سوال دوم این است: آیا رضایت جسیکا برای ایجاد ربات مرده او کافی است؟
بهتر است در این مورد مثال واقعی بزنیم. در آمریکا شخصی به نام «آرمین میوس» که «آدمخوار روتنبرگ» هم شناخته میشود، یک مهندس آلمانی است که قربانی خود را کشت و گوشت بدنش را خورد. نکته تعجبآور این است که قربانی میوس آگاهانه و با میل خود تن به کشته شدن داده بود، اما با این همه میوس به حبس ابد محکوم شد. در این رابطه، استدلال شده است که رضایت به چیزهایی که میتواند برای خودمان مضر باشد، خواه از نظر فیزیکی (فروش اندامهای حیاتی) یا به طور انتزاعی (از بین بردن حقوق خود) غیراخلاقی است.
اینکه چه چیزی ممکن است برای مرده مضر باشد، موضوع پیچیدهای است که نمیتوان به طور کامل آن را تحلیل کرد. با این حال، شایان ذکر است که حتی اگر نمیتوان به مرده آسیبی وارد کرد یا به زندگان آزار داد، این به معنای آسیبناپذیر بودن آنها در برابر اعمال بد و اخلاقی بودن آنها نیست. مردگان ممکن است به شرافت، آبرو یا حیثیت خود لطمه وارد کنند (مثلا کمپینهای بدنامی پس از مرگ)، و بیاحترامی به مردگان نیز به نزدیکان آنها آسیب میرساند. علاوه بر این، رفتار بد با مردگان ما را به جامعهای هدایت میکند که ناعادلانهتر است و در کل به کرامت انسانی احترام نمیگذارد.
با در نظر گرفتن همه این موارد، منطقی به نظر میرسد که اگر توسعه یا استفاده از ربات مرده حتی با موافقت آن فرد در زمان زنده بودن، همراه باشد، باز هم رضایت آنها باطل تلقی میشود.
چه کسی مسئول است؟
چه کسی مسئولیت را بر عهده می گیرد؟
موضوع سوم این است که آیا سیستمهای هوش مصنوعی باید به دنبال تقلید از هر نوع رفتار انسانی باشند (بدون در نظر گرفتن اینکه آیا این امکان وجود دارد یا خیر)؟
این بحث یک نگرانی در زمینه هوش مصنوعی است و باید به این سوال پاسخ دهیم که آیا باید سیستمهای مصنوعی ایجاد کنیم که مثلا قادر به مراقبت از دیگران یا تصمیمگیری سیاسی باشند؟ به نظر میرسد چیزی در این مهارتها وجود دارد که انسان را از سایر حیوانات و ماشین ا متمایز میکند. از این رو، مهم است که توجه داشته باشیم که مسیر هوش مصنوعی به سمت اهداف فناورانه مانند جایگزینی عزیزان ممکن است منجر به کاهش ارزشی شود که ما به عنوان انسان مشخص میکنیم.
چهارمین سوال اخلاقی این است که چه کسی مسئولیت نتایج یک روبات مرده را بر عهده دارد؛ به ویژه در مورد اثرات مضر؟
تصور کنید که روبات مرده جسیکا به طور مستقل یاد بگیرد که حافظه او را تحقیر کند یا به سلامت روان باربیو آسیب جبرانناپذیری وارد کند. چه کسی مسئول این مساله است؟ کارشناسان هوش مصنوعی از طریق دو رویکرد اصلی به این سوال لغزنده پاسخ میدهند: اول، مسئولیت بر عهده کسانی است که در طراحی و توسعه سیستم نقش دارند و دوم، سیستمهای یادگیری ماشینی وابسته به زمینه هستند، بنابراین مسئولیتهای اخلاقی خروجی آنها باید بین همه عواملی توزیع شود که با آنها در تعامل هستند