آقای مهندس فانی دبیر کارگروه هوشمند سازی معاونت علمی، آقای دکتر عاشری معاون ستاد توسعه هوش مصنوعی و رباتیک معاونت علمی، دکتر پور اسماعیل کارشناس فناوری اطلاعات مرکز پژوهشهای مجلس و آقای دکتر سلجوقی کارشناس فناوری اطلاعات در خصوص تهدیدها و فرصت های هوش مصنوعی در جهان با شبکه خبر در برنامه گفتگوی ویژه خبری گفتگو کردند.
سوال : در خصوص تهدیدها و البته برخی از فرصتهایی که هوش مصنوعی با توسعه خودش در جهان به وجود آورد داریم صحبت میکنیم و در مقابل این تهدیدها باید چه تمهیداتی اندیشیده شود در خدمت جناب آقای مهندس فانی هستیم دبیر کارگروه هوشمندسازی معاونت علمی .
فانی: مهمترین بحث این هست که اشتغالهای مختلف این فناوری با توجه به ماهیتی که دارد و به عنوان یک فناوری برهم زن میتواند اشتغال ها را تأثیر قرار بدهد کما اینکه بعضا نگرانیهایی در جامعه هنرمندان، جامعه روزنامهنگاران، خبرنگاران اینها میتوانیم ببینیم که با توسعه حالا آن روباتها محاورهای این نگرانی ایجاد شده در واقع، نکته بعدی بحث مربوط به نگرانیهای امنیتی هست که برای این قضیه متصور است به هر حال یک زمانی اگر کسی یک نیت بدخواهانهای داشت و میخواست این را اعمال کند کاری که انجام میداد این بود که میآمد مثلاً باید دانش خیلی بالایی میداشت و آنها را انجام میداد تا مثلاً عمر حالا نفوذی که میخواست انجام بدهد از نظر امنیتی را انجام بدهد ولی الان جوری شده که تمام این اینها را خود هوش مصنوعی میشود گفت که میتوانه توسعه بدهد انجام بدهد البته من باز هم داخل پرانتز بگویم فرصتهای بسیار زیادی دارد و الان ما داریم فقط به تهدیدات این قضیه نگاه میکنیم.
سوال: در ادامه این برنامه تهدیدها رو داریم میگوییم، چون یکی از موضوعات روز جهان شده و داریم به آن میپردازیم در کوتاه مدتها موردی مانده؟ تیتروار بفرمایید؟
فانی: نقض حریم خصوصی هستش که بعضاً به وجود میآید، بحث این هست که ممکن ناکارآمد باشد آن مدل زبونی بهخاطر اینکه ورودی دیتا دادههایی که قرار است ورودی داشته باشد ممکن است که دادههای دقیقی نباشد و این باعث شود که آن دقت کافی و لازم را نداشته باشد عدم شفافیتی هست که بر اساس این که فعل حاضر ادراک وجود ندارد برای هوش مصنوعی این عدم شفافیت را میتونیم مبتلا بهش نگاه کنیم تبعیضی هست که ایجاد میکند و میشود گفت که شکاف طبقاتی را میتواند ایجاد کند یعنی باز هم به نکته اول برمیگردیم که ممکن اشتغال را بهم بزند و این باز هم یک شکاف طبقاتی را منجر شود و حتی در موضوعیت قبلی که بحث دیتاستها و آن دادگان اصلی که از ورودی این هست اگر یک قشر خاصی از همین ابتدا باهاش کار کنند و هوش مصنوعی چیزی که یاد میگیرد براساس همان و و روزیهای قبلی هست که اولین افراد توانستند بهش ورود پیدا کنند لذا این ایجاد شکاف طبقاتی را میتواند متصور باشیم.
سوال: که قطعا وجود این شکاف طبقاتی میتواند خودش تهدیدهای دیگری را باز هم با خودش بیاورد.
فانی: یعنی این سلسله مراتبی هست زنجیرهای هست نوین بار میرود جلو و در آخر هم میتوانم به بحثهای اخلاقی و موضوعات ذیل مثلاً تقلب عمیق به قولی گفتنی میشود گفت که صوت و تصویر و ویدئو را میتواند تقلید بکند و هر روز قابلیت این را دارد و توسعه پیدا میکند اینها میشود گفت کوتاه مدتهایی هست که همین الان هم مبتلا به هستیم که مثلاً پنج ده سال آتی.
سوال: آقای مهندس پیش از اینکه سراغ بلندمدت برویم یک گزارش همکاران من آماده کردند گزارش را با هم ببینیم ادامه بحث را خواهیم داشت، جناب آقای دکتر عاشری معاون ستاد توسعه هوش مصنوعی و رباتیک معاونت علمی هم روی یک خط با ما ارتباط تصویری داریم سلام عرض میکنم خدمت شما سلام وقتتون بخیر شبتون بخیر باشد آقای دکتر گزارش رو با هم دیدیم و بحث اولاً با آقای مهندس فانی صحبت کردیم در مورد تهدیدهای اولیه صحبت کردیم و برخی هایش را برشمردند در خصوص اینکه چه تمهیداتی برای مقابله با این تهدیدات اولیه اندیشیده شده میتوانیم صحبت کنیم آیا سیاستگذاری در این زمینه انجام شده؟
عاشری: خیلی خوشحالم که در خدمت شما هستم من به شخصه اعتقادم بر این هست که ما در ایران و در حال حاضر فرصتهای هوش مصنوعی نسبت به تهدیداتش برای ما بیشتر است و ما در فازی هستیم که در واقع این فرصتها خیلی پررنگتر است و در این مرحله ما هستیم قطعاً فرصتهای بیشتر، چون به هر حال ما با چالشهای متعددی روبهرو هستیم که هوش مصنوعی میتواند به عنوان یک فن آوری پیش ران به ما کمک بکند و در واقع کشور را با یک شتاب خیلی بالایی به جلو ببرد، اما حالا مثال هایش را هم چندتا تا میزنم تا در فرصتهای بعدی، ما ببینید ما به زودی بحث پیری جمعیت را خواهیم داشت آن جا دستیارهای مراقبت روباتهای مراقبت میتوانند خیلی کمک کنند، بحث چالشهای آب و کشاورزی را داریم هوش مصنوعی میتواند راندمان در واقع مصرف.
سوال: آقای دکتر عذرخواهی میکنم از شما، اما در خصوص فرصتهایی که هوش مصنوعی صحبت خواهیم کرددر ادامه اول میخواهیم در خصوص تهدیدات را گفتیم تمهیدات را میخواهیم بشنویم از زبان شما به هر حال سیاستهایی اندیشیده شده؟
عاشری: بله ببینید در حوزه تهدیدات خوب ما چند تا تهدید داریم که در واقع عمده تهدیدات هستند یکی بحث که خوب خیلی عموم مردم هم راجبش دغدغهمند هستند بحثهای در واقع حذف مشاغل هست و اینکه امنیت شغلی مردم چطور خواهد بود خوب نگاه کنید اینجا خیلی مهم است که ما در واقع از فناوری بتوانیم در کشور به درستی استفاده بکنیم و دولت و حکومت بتواند وظیفه تنظیم گری خودش را به خوبی انجام بدهد اگر دولت و حکومت بتواند وظیفه تنظیم گری را به خوبی انجام بدهد ما خیلی خوب میتوانیم در واقع این فناوری را سوار شویم در واقع و با تمهیداتی که میاندیشیم هدف گذاری کنیم مشاغلی یا آن در واقع کارهای تکراری که با طبیعت انسان سازگار نیست و خسته کننده است آنها را حذف کنیم حجم و حجم فشار کاری افراد رو کم بکنیم و افراد در واقع هوش مصنوعی بیاید کمک شان بکند یک بخشی از کارها را هوش مصنوعی انجام بدهد
و بخش مهمتر و حساستر کارها را در واقع اپراتورها یا نیروهای انسانی انجام بدهند و کما اینکه نیروهای انسانی هم نظارت داشته باشند حتی در آن بخشی که هوش مصنوعی دارد کار میکند.
سوال: بنابراین پس این راه کارها در مقابل این هست که میتواند برخی از شغلها را از بین ببرد درست است؟
عاشری: بله دقیقاً یعنی ما اگر این را مهار بکنیم این فناوری را اگر مهار نکنیم قطعاً صرفاً یک فن آوری خواهد بود که به همان طوری که آقای مهندس فانی فرمودند منجر به شکاف طبقاتی بیشتر و در واقع ثروتاندوزی ثروتمندان خواهد شد، اما اگر دولت، البته دولت که عرض میکنم قوای مختلف از قوه مقننه و مجریه و قضاییه اینها بتوانند در واقع قانونگذاری کنند ما فناوری را در دست بگیریم و بتوانیم خوب ما مهارش کنیم و بهینه استفاده میکنیم به نظر من بحث تهدید در واقع مشاغل قابل مدیریت کردن هست و چه بسا منجر به این خواهد شد که کیفیت زندگی مردم بالا برود.
سوال: یک مورد دیگری هم که اشاره شد عدم شفافیت بود در این مورد هم راهکاری وجود دارد؟
عاشری: ببینید ما یک سری در واقع ترمهایی هست در حوزه در واقع هوش مصنوعی اخلاقمدار که دنیا نه هنوز هم که در واقع داریم صحبت میکنیم روی این به جمعبندی نرسیده و بیشتر در فاز توسعه و تحقیق است که یک در واقع سیستم هوشمند اخلاق مدار چطور چه ترمها و چه محدودیتهایی را رعایت کند خوب ما الان بحثهایی مثل توضیح پذیری، شفافیت عدم سوگیری، در واقع گوناگونی اینها ترمهایی هست که ما برای سیستمهای هوشمند داریم در دنیا دارد کار میشود ما هم هم داریم کار میکنیم الان در سند ملی هوش مصنوعی که در کشور دارد تدوین میشود بودجه این دغدغهها و در واقع ارزشهای مربوط لحاظ شده و این موضوعی هست که دغدغه ما هم هست انشاءالله ما هم در ستاد داریم تلاش میکنیم که انشاءالله این مد مد نظر قرار بگیرد.
سوال: انشاءالله لطفا همراه ما باشید در ادامه بنده چند سوال دیگر هم از شما دارم آقای مهندس فانی آقای دکتر عاشری اشاره کردند به تنظیم گردی که باید انجام شود در این زمینه هم میتوانید صحبت بکنید و لزوم تنظیم گری هم در این زمینه؟
فانی: ببینید یک نکتهای که وجود دارد من این نکته مهمی هست بگویم خدمتتان میگوید که حس ناامنی خیلی بدتر از خود ناامنی هست ما نباید نسبت به فناوری بترسیم و و باید این را بشناسیم یعنی بشناسیم و آگاه باشیم که ما مثلاً بحث پیام رسانها اگر که نبود و ما نمیدانستیم که چه تهدیدی میتواند مترتب باشد یعنی اول بایستی ما یک نوری بیندازیم ببینیم تو دستمان بیاید فناوری که چه چیزی هست و بعدش هموانطور که آقای دکتر عاشری بزرگوار فرمودند ما بایستی بتوانیم این را وقتی که فهم کردیم و الان تو در لایهای نیستیم که خیلی تهدیدات جدی باشد و ما را خیلی بخواهد اذیت بکند و اینها ولیکن باید دید داشته باشیم نسبت به تنظیم گری، تنظیم گری یک نقطه خیلی حساسی دارد که اگر که ما این را پیچش را خیلی سفت کنیم باعث میشود که جا بمونیم از فن فناوری نتوانیم توسعه بدهیم اگر که رها کنیم ممکن است از آن طرف باعث یک سری از ناکارآمدیهایی بشود.
سوال: پس در حقیقت اصلاً حقیقت آگاه بودن از این موضوع و اقدام بموقع کردن درست میتواند جلوگیری کنداز خطرات احتمالی؟
فانی: الان وقتی هست که ما باید به فکر توسعه باشیم به نوعی خوب چرا که، چون که جا نمانیم به عنوان مثال میگویم خدمت شما مثلا فناوری تقلب عمیق دو تا ایجنت اصلی دو تا موتور اصلی دارد این فناوری که از میآیند همدیگر را چیکار میکنند یعنی همان که دارد تقلب را ایجاد میکند یک موتور دیگر چک میکند که آیا این تقلب قابل تشخیص است یا نه و اگر باشد دوباره گزارشش را میدهد به آن بانک این را مثلا ممکن است کشور دیگری توسعه بدهد ولی ما اگر که توسعه ندهیم و باهاش درگیر نشویم نمیتوانیم آن قسمت تشخیص دهندهاش ر بتوانیم حتی بهش برسیم و ارزیابی داشته باشیم.
سوال: اجازه بدهید این بحث را باز بکنیم جناب آقای سلجوقی با ما هستن کارشناس فناوری اطلاعات آقای دکتر سلام عرض میکنم خدمت شما شبتان بخیر باشد تا انیجا ما در خصوص برخی از تهدیدها و تمهیداتی که در مقابل این تهدیدها باید اندیشیده شود صحبت کردیم البته به موضوع تنظیم گری هم اشاره کردیم نظر شما در خصوص هوش مصنوعی و تهدیدهایی که وجود دارد و جهان هم در خصوص آن دارند صحبت میکنند و اقداماتی انجام میدهند چیست؟
سلجوقی: من حقیقتش خیلی به این تهدیدها اعتقاد ندارم و معتقد هستم که هر فناوری که میآید درست است که اشتغال را ممکن است کم کند یا یک سری از اشتغالها را از بین ببرد، ولی در نتیجه یک جابجایی اشتغال خواهیم داشت نمونهاش وقتی موقع که ماشین آمد درشکه رفت کنار، خوب ما مواجه شدیم با تغییر فرهنگ تغییر شغل که خوب از درشکه چی به رانندگی تغییر پیدا کرد و این به نظر من تهدیدات قابل مدیریت کردن هست.
سوال: چطور؟
سلجوقی:از جمله مثلا همین بحث دادههای نادرست الان دادههای نادرست را با یک بازی بازسازی کاملاً اینها را میشود مدیریت کرد و حل کرد بحث عدم شفافیت را اتفاقا با همین بازی بازسازی میشود کنترلش کرد اتفاقا نوع تصمیمهایی که تهدید میشود گرفت نادیده انگاری به هوش مصنوعی برای مثلاً برای تفریح ساده ما باید صدها هزار مگا بایت داده را در لحظه تحلیل کنیم خوب طبیعتاً مغز ما دیگر به بهترین آدمها چند مگابایت بیشتر را نمیتواند تأمین کند بعد با صدها هزار مگا بایت اصلا قابل قیاس نیست طبیعتا اگر ما همین هوش مصنوعی را نادیده بگیریم به نظر میآید که این خودش بزرگترین تهدید است و جالب اینجاست که خود غربیها که شعار و علمدار این تهدید شدند به دنبال من فکر میکنم دور کردن کشورهای جهان سومی هستند از این فناوری که احتمالاً یک مقدار دست آنها را به نظر من رو خواهد کرد در این تصمیمگیریها و خیلی از مواردی که اینها نقشه میکشند برای کشورهای جهان سوم که استثمارشان کنند و تحت سلطه خودشان نگه دارند اینها از بین خواهد رفت.
سوال: شما فرمودید که پس در مقابل تهدیدها میتوانیم راهکارهایی داشته باشیم که توسعه هوش مصنوعی در کشور استفاده کنیم؟
سلجوقی: بله دقیقا.
سوال: آقای مهندس فانی نظر شما چیست؟ آقای دکتر میفرمایند که تهدیدی وجود ندارد؟
فانی: من میخواهم وام بگیرم از صحبتهای آقای دکتر عاشری و همچنین دکتر سلجوقی عزیز الان شاید برای ما اولویت روی توسعه باشد و این به معنی این نیست که تهدید وجود ندارد ولی شاید تهدید اصلی این باشد که ما همان داده درست و تمیز را نتوانیم وارد بکنیم به انجینها و موتورهای هوشمند که بخواهیم این توسعه را داشته باشیم و این میشود گفت که حالا به نوعی گذشته از اینکه ما را عقب میراند نسبت به توسعه بینالمللی و توسعه جهانی نسبت به این موضوع باعث میشود که وجهه اعمال آن تهدیدها بر ما خیلی بیشتر شود.
سوال: آقای دکتر عاشری با توجه به بحثی که و صورت گرفته در سند ملی توسعه هوش مصنوعی به تهدیدها آیا توجه شده و اینکه به راهکارها هم توجه شده همانطور که خود شما گفتید که حالا میخواهم ببینم اولویت بندی در کدام سمت و سو هست؟
عاشری: من قبل از پاسخ سؤال شما را بدهم عرضی که میخواستم بکنم این هست به نظر من الان بزرگترین تهدیدی که ما در مورد هوش مصنوعی مواجه هستیم تهدیدات بد هوش مصنوعی هست یعنی در واقع به نظر میآید یک بازیهایی دارد راه میافتد که هوش مصنوعی برای کشورهایی مثل ما به عنوان یک فناوری خیلی مخرب و تهدید گر شناخته شود و چه بسا همین مانع شود که ما نتوانیم سوار بر فناوری بشویم و از مسئولین و مواهب آن بهرهمند بشویم در مورد سؤالتون در حوزه سند ملی هوش مصنوعی در واقع ما کلیاتی را آن جا در سندی که معاونت علمی دراد تدوین میشود کلیاتی را داریم مشخص میکنیم که در حوزههای مختلف در واقع تهدیداتی که در استفاده از هوش مصنوعی باهاش مواجه بشویم کلیاتش را مشخص میکنیم مثلاً هوش مصنوعی اخلاقمدار و در واقع بحث مشاغل است که در نظام ارزشی در ایران اسلامی استفاده از هوش مصنوعی باید به گونهای باشد که امنیت شغلی و سایر وجههای امنیت مردم از بین نرود لذا ما در سند ملی هوش مصنوعی این کلیات را مشخص کنیم در کل یک کار ملی بزرگی باید در کشور انجام شود که ما بتوانیم مجموعه اسنادی را خوب تدوین کنیم که بتوانیم این در واقع فناوری را برش مسلط باشیم انشاءالله بتوانیم در جهت رفاه حال مردم از آن استفاده کنیم.
سوال: جناب دکتر پور اسماعیل هم الان روی خط با ما هستند کارشناس فناوری اطلاعات مرکز پژوهشهای مجلس در خصوص هوش مصنوعی داشتیم صحبت میکردیم به یکی از بحثهایی که رسیدیم وجود تنظیم گری و قانونگذاری در این حوزه بود در این زمینه فعالیتهایی انجام شده؟
پور اسماعیل: بله حتما انجام شده من خواستم از اشتغال و شغل که دوستان کارشناسان صحبت کردند از آن جا شروع بکنم شما شغلهایی که الان وجود دارد کارمندهای که چه دولت و چه بخش خصوصی برای مشاغل مختلف انتخاب میکنند خوب هر کدام با یک ساز و کاری بررسیهایی را انجام میدهند که ببینند آن شخص و آن کارشناس برای آن شغل در واقع مناسب هست یا خیر؟ پس از بررسیها مشخص میشود شخصی یک شغلی را داشته باشد آیا خوب حالا این سامانههای هوش مصنوعی که قرار است در واقع مثل این کار شناسایی که شغلها را تصاحب میکنند و کار را انجام میدهند کارهای کارشناسی این کارها را انجام میدهند سامانهها در واقع به جای انسان تصمیم گیری میکنند و فعالیت میکنند آیا این سامانهها باید در در واقع طبق قوانین و مقررات و مشخصههایی باید فعالیت بکنند یا خیر؟ مشخصاً در واقع ما باید قوانینی داشته باشیم که برای سامانههای هوش مصنوعی که در حوزههای مختلف اقتصادی، اجتماعی، فرهنگی، آموزش، سلامت صنایع و حوزههای دیگر که الان دارند توسعه پیدا میکنند و در آینده هم با سامانههای جدیدی ما مواجه هستیم ساز و کارش را مشخص بکنند و ملاحظاتی که باید این سامانههای هوش مصنوعی برای فعالیت در این حوزهها داشته باشند اینها را باید در واقع قانون گذاران مشخص بکنند و مخاطراتی هم که مرتبط با هر کدام از این حوزهها هست را مشخصاً قانون گذار بپردازد و در واقع به تبع آن تنظیم گران تخصصی هر حوزه هم ورود داشته باشند و تنظیم گری خاص خودشان رو داشته باشند.
سوال: آقای فانی در ابتدا اشاره کردید به دو مقوله یکی اینکه تهدیداتی که در کوتاه مدت وجود دارد و بلند مدت، بلند مدت باقی ماند بلند را تیتروار بفرمایید؟
فانی: یکی بحث پیش بینی ناپذیری عملکرد خود هوش مصنوعی هست که ممکن است به سطحی از بلوغ اینها برسند که بیشتر از صد تا از اپراتوری که دارد کار میکند خودش، خودش رو اصلاح کند یعنی خوداصلاح گری داشته باشد بحث بعدی تبعیض بهرهبرداری از هوش هست و به عنوان مثال الان خوب آمریکا مثلاً یکی از خطهای اصلی سیاستی تحریف هست که این فناوری و زیرساختهایش توسعه پیدا نکند در چین و کشورهایی که همسو باهاش نیستند و نکته بعدی از کنترل خارج شدن است من میخواهم این را برای بینندگان گرامی عرض بکنم که ما در کجا هستیم سه لایه تقسیم بندی مختلف برای هوش متصور هست سه لایهای که ما میتوانیم بهش فکر بکنیک در رابطه با این موضوع که بخواهم خدمتتان عرض کنم بحث یک هوش مصنوعی محدود است که برای یک کار خاصی فقط طراحی شده یکی هم لایه بعدی این که بحث هوش مصنوعی کلی یا جنرالای آی هست که این کارهای مشابه انسان انجام میدهد چندین مجموعه چندین کار را میتواند نجام بدهد و لایه بعدی بحث بحث هوش مصنوعی فوقالعاده یا سوپرای آی هست که در آن هوش مصنوعی میتواند به ادراک نزدیک شود آن لایه که خطرناک هست این هست که ما هوش مصنوعی را توسعه داده باشیم که به سوپرای آی باشد که به ادراک نزدیک شده باشد و بهش چه چیزی را چه چیزی را ارائه بدهیم این را ارائه بدهیم که تصمیمگیری کند برای بشریت بدون احساسات که ما در لایه جنرالای آی و آن لایه وسطی شاید مثلا چهل سال باهاش فاصله داریم لذا الان نیاز هست که ما توسعه را ببینم زمانی که چرخ خیاطی آمد در انگلیس بریتانیا به عنوان ملکه بریتانیا گفت کسی که چرخ خیاطی را اختراع کرده گردن بزنند به خاطر اینکه میگفتند شغلها را به هم میو از بین میبرد به قولی کلید واژهای هست در اقتصاد به اقتصاد شومپیتری که فناوریهای خلاق و برهم زن میآیند و این باعث توسعه بهرهوری هم بعضاً میشود کما اینکه چرخ خیاطی خیلی کمک کرد.
سوال: اینجا نکتهای هم هست شما گفتید که چهل سال فاصله داریم تا آن نزدیک شدن به ادراک خوب فناوری غیرقابل پیشبینی است ما نمیتوانیم بگوییم چهل سال فاصله داریم راجع به توسعهای که پیش میآید و در سالهای هم گذشته شاهد آن بودیم پس باید آگاه باشیم نسبت به همین فناوری که خود شما میفرمایید توسعه بدهیم فناوری را و آماده باشیم با هرگونه تهدیدی که باهاش مواجه شدیم و همونطور که الان جهان با تهدید مواجه شدند و در مقابلش تمهیداتی را میاندیشند؟
فانی: در لایه جهانی و به قولی گفتم آن چیزی که در دنیا اتفاق میافتد سازمان ملل دنبال این هست که هر کشوری معمولاً یک نکته میگوید سازمان دنبال این هست که حالتای ایی برای هوش مصنوعی دا شته باشد کشور بریتانیا خیلی دنبال این قضیه هست و رویکردهای دیگر هم در کشورها هست.