به گزارش پایگاه خبری تحلیلی فناوریهای هوشمند، تاریخ استفاده انسان از فناوری، همواره تاریخ تحول پا به پای انسان با فناوری نیز بوده است. فلاسفه از روسو و هایدگر گرفته تا کارل اشمیت، اصرار داشته اند که فناوری هرگز ابزاری طبیعی برای دستیابی به مقاصد انسانی نیست. وقتی انسان ها از نوآوری های تکنولوژیک- از ابتدایی ترین تا پیچیده ترین آنها- برای کنترل محیط خود استفاده می کنند، این نوآوری ها خود آنها را نیز از نو شکل می دهند. هوش مصنوعی ابزار جدید و قدرتمندی است و این فناوری نیز در حال تغییر دادن بشر است.
نوشتار و بعد رسانه های چاپی، ثبت دقیق تاریخ و انتشار آسان دانش را امکان پذیر ساخت، اما سنت های داستان سرایی شفاهی را که قرن ها قدمت داشت نیز از بین برد. دوربین های دیجیتال و موبایل همه جا حاضر و ناظر، نحوه تجربه و ادراک انسان ها از رویدادها را دگرگون کرده اند. وجود سیستم های جی پی اس که به گستردگی در دسترس قرار دارند، به این معنی است که رانندگان ندرتا راهشان را گم می کنند، اما اتکای بر آنها ظرفیت های داخلی آنها را برای جهت یابی نیز تحلیل برده است.
هوش مصنوعی نیز از این نظر تفاوتی ندارد. هرچند عبارت هوش مصنوعی نگرانی هایی را درباره روبات های قاتل، بیکاری یا نظارت دولتی گسترده به ذهن متبادر می کند، اما این فناوری کاربست های عمیق تر دیگری نیز دارد. درحالی که هوش مصنوعی به شکل روزافزونی در حال شکل دادن به تجربیات انسان است، چگونه معنای انسان بودن را تغییر می دهد؟ مشکل اساسی در ظرفیت فرد برای دست زدن به انتخاب های مختلف به خصوص قضاوت هایی که کاربست های اخلاقی دارند نهفته است.
در کنترل گرفتن زندگی ما؟
هوش مصنوعی برای مقاصد گسترده و شتابان در حال افزایشی به کار گرفته شده است. از این فناوری برای این استفاده شده که بر اساس ترجیحات و انتخاب های قبلی آنها، پیش بینی شود که تماشاگران کدام برنامه های تلویزیونی یا فیلم هایی را تماشا خواهند کرد و تصمیم بگیرد که بر اساس عملکرد قبلی مردم و سایر عوامل دخیل در بازپرداخت اقساط، به چه کسانی وام تعلق بگیرد. از این فناوری برای ردگیری تعاملات تجاری تقلب آمیز و شناسایی تومورهای بدخیم استفاده شده است. برای اتخاذ تصمیمات مربوط به استخدام و اخراج در فروشگاه های زنجیره ای بزرگ و مدارس دولتی به کار رفته است. همچنین در حوزه اجرای قانون – از ارزیابی احتمالات ارتکاب جرم، تخصیص نیروی پلیس گرفته تا شناسایی چهره مظنونین جنایی – استفاده شده است.
بسیاری از این کارکردها مخاطرات نسبتا آشکاری را در خود دارند. اگر الگوریتم هایی که برای تایید پرداخت وام، تشخیص چهره یا استخدام به کار گرفته می شوند بر اساس داده هایی آموزش داده شوند که جهت گیری دارند، مدل های جهت دار را می سازند و به این سمت تمایل پیدا می کنند که تبعیض ها و نابرابری های موجود را تکرار کنند. اما پژوهشگران بر این باورند که با داده های پاکسازی شده و مدل سازی سختگیرانه تر امکان سوگیری های الگوریتمی کم می شود و از بین می رود. حتی امکان دارد هوش مصنوعی بتواند پیش بینی هایی را انجام دهد که به نسبت پیش بینی های انسانی، منصفانه تر و داری سوگیری کمتری باشد.
در حالی که سوگیری های الگوریتمی یک مسئله فنی است که دست کم در تئوری می توان آن را حل کرد، این مسئله پرسشی بنیادین تر است که هوش مصنوعی چگونه توانایی های انسان را که تعریف کننده انسان بودن اوست دگرگون می کند. ما طی چند سال گذشته در قالب پروژه «هوش مصنوعی و تجربه» در مرکز اخلاقیات به کار گرفته شده دانشگاه بوستون این مسئله را مورد مطالعه قرار داده ایم.
از دست رفتن توانایی انتخاب کردن
ارسطو می گوید ظرفیت دست زدن به قضاوت های عملی بستگی به انجام مداوم آن یا عادت کردن و عمل کردن است. از نظر ما ظهور ماشین ها به عنوان قاضیان جانشین در انواع امور روزانه، تهدیدی بالقوه برای یادگیری این است که انسان چگونه به شکلی کارآمد خود دست به قضاوت بزند.
در محل کار، مدیران مرتبا تصمیماتی را از جمله در این باره می گیرند که چه کسانی را استخدام یا اخراج کنند، کدام وام را تصویب کنند و ماموران پلیس را به کجا اعزام کنند. این ها حوزه هایی هستند که در آنها تجویزهای الگوریتمی در حال جایگزین شدن با قضاوت انسانی است و از این رو کسانی که شاید شانسی برای تکامل قضاوت عملی در این حوزه ها را در خود دارند، دیگر چنین شانسی را به دست نخواهند آورد.
موتورهای تجویز و توصیه که هر چه می گذرد در مصرف فرهنگ مردم بیشتر به میانجی تبدیل می شوند، می توانند در جهت محدود کردن انتخاب و به حداقل رساندن بخت و اقبال عمل کنند. با ارائه انتخاب های تهیه شده از سوی الگوریتم ها که مصرف کنندگان چه چیزی را تماشا کنند، چه چیزی را بخوانند، کدام فیلم را ببینند و بعد از کجا دیدن کنند، شرکت ها در حال جایگزین کردن سلایق انسانی با سلایق ماشینی هستند. از یک جهت این کار مفید است. چرا که ماشین ها می توانند طیف وسیع تری از انتخاب ها را پیمایش کنند که احتمالا همه وقت و انرژی کافی را برای اینکه خودشان چنین کاری را انجام دهند ندارند.
اما در عین حال این راه حل در حال بهبود بخشیدن به این است که مردم بر اساس چیزهایی که در گذشته ترجیح داده اند، احتمالا چه چیزی را ترجیح می دهند. به نظر ما در این کار این خطر وجود دارد که گزینه های مردم به شیوه ای جدید و پیش بینی ناشده به گذشته های آنها محدود شود؛ نوعی تعمیم بخشیدن به پدیده «اتاق پژواک» که مردم هم اکنون در شبکه های اجتماعی شاهد هستند.
چنین به نظر می رسد که ابداع فناوری های پیش بینی کننده قدرتمند، احتمالا بر نهادهای سیاسی اساسی نیز تاثیر بگذارد. برای مثال ایده حقوق بشر مبتنی بر این بینش است که انسان ها موجودیت هایی با شکوه، غیرقابل پیش بینی و مستقلی هستند که دولت باید آزادی آنها را ضمانت کند. اگر انسان ها- یا دست کم تصمیم گیری آنها- قابل پیش بینی تر شود، آیا نهادهای سیاسی باز هم به همین روش به صیانت از حقوق بشر ادامه خواهند داد؟
کاملا قابل پیش بینی
همزمان با بهبود الگوریتم های یادگیری ماشین که شکل رایجی از هوش مصنوعی «ضیق» یا «ضعیف» به حساب می آیند و هر چه می گذرد با مجموهه داده های وسیع تری آموزش داده می شوند، احتمالا بخش های بزرگ تری از زندگی تک تک انسان ها به شدت قابل پیش بینی می شود. این پیش بینی ها بهتر و بهتر می شوند و در نهایت تجربیات مشترک را کارآمد تر و دلپذیرتر خواهند کرد.
الگوریتم ها به زودی- اگر تاکنون این کار را نکرده باشند- بهتر از گذشته درک خواهند کرد که شما دفعه بعد چه برنامه ای را دوست دارید تماشا کنید و کدام متقاضی شغلی را باید استخدام کنید. حتی یک روز انسان ها ممکن است راهی پیدا کنند که ماشین ها بتوانند بدون برخی از سوگیری هایی که انسان ها نوعا از خود نشان می دهند این تصمیمات را بگیرند.
اما به همان اندازه که غیرقابل پیش بینی بودن بخشی از نحوه ادراک انسان ها از خود است و در اینکه چه چیزهایی را در ارتباط با خودشان دوست دارند نقش دارد، بشر در روند از دست دادن چیزی بسیار مهم قرار دارد. در حالی که هر چه می گذرد آنها پیش بینی پذیرتر می شوند، این موجودات ساکن در دنیایی که هر چه می گذرد هوش مصنوعی بیشتر میانجی این دنیا با آنها می شود، شباهتشان به ما کمتر و کمتر خواهد شد.