• امروز : پنج شنبه - ۳۰ فروردین - ۱۴۰۳
  • برابر با : Thursday - 18 April - 2024
8
نمایشگاه هوش مصنوعی و کلان داده

نمایشگاه هوش مصنوعی و کلان داده (۲۰۲۱): اصول اخلاقی، باورهای غلط و درک داده‌ها

  • کد خبر : 6340
  • ۲۵ مهر ۱۴۰۰ - ۱۱:۵۶
نمایشگاه هوش مصنوعی و کلان داده (۲۰۲۱): اصول اخلاقی، باورهای غلط و درک داده‌ها
طبق پیش‌بینی‌های انجام شده، ظرف چند سال آینده ارزش بازار جهانی هوش مصنوعی روند صعودی در پیش می‌گیرد و ارزش آن در سال ۲۰۲۵ به ۶۱/۱۹۰ میلیارد دلار افزایش پیدا می‌کند. طبق برآوردهای صورت گرفته، در سال ۲۰۳۰، هوش مصنوعی سهم ۷/۱۵ تریلیون دلاری (معادل ۲۶ درصد رشد) در GDP جهانی خواهد داشت و این موضوع باعث شد توجهات بیشتر جلب نمایشگاه هوش مصنوعی و کلان داده شود که این هفته در لندن برگزار شد.

 

علاوه بر آنچه گفته شد، طبق پیش‌بینی Gartner تا سال ۲۰۲۲، بیشتر شرکت‌ها به طور میانگین ۳۵ پروژه هوش مصنوعی در دست اجرا خواهند داشت.

انتظار می‌رود صنعت تولید نسبت به دیگر صنایع مصرف نهایی رشد سریع‌تری داشته باشد. افزایش حجم داده‌هایی که از زنجیره ارزش صنعت تولید استخراج می‌شوند، راه را برای ورود تحلیل‌‌ هوشمند داده‌ها به عرصه تولید باز کرده است. علاوه بر این، طرح‌های صنعتی متعددی، از جمله طرح انقلاب صنعتی چهارم (Industry 4.0) به افزایش تعداد دستگاه‌های هوشمند در بخش تولید دامن زده است. Industry 4.0 یکی از طرح‌های دولت آلمان حول تولید متصل است.

کسب‌وکارها خودکارسازی امور، از جمله صدور صورت حساب و اعتبارسنجی قرارداد را از جمله موارد کاربرد بسیار مهم هوش مصنوعی می‌دانند.

علاوه بر این، ۸۰ درصد از مدیران اجرایی خرده‌فروشی‌ها امیدوارند تا سال ۲۰۲۷ اتوماسیون هوشمند را در شرکت‌های خود به اجرا در آورند. اصلی‌ترین کاربرد هوش مصنوعی در صنعت خرده‌فروشی مشارکت مشتری (ربات‌های سخنگو، تحلیل پیش‌بینی‌ کننده رفتار، فرا شخصی‌سازی) است.

در مقابل، کمبود نیروی باتجربه و آموزش دیده مانعی بر سر راه رشد بازار هوش مصنوعی است.

نمایشگاه هوش مصنوعی و کلان داده

نمایشگاه هوش مصنوعی و کلان داده

در نمایشگاه هوش مصنوعی و کلان داده، که این هفته در لندن برگزار شد، به طور جدی به فرصت‌ها و چالش‌های پیرامون هوش مصنوعی و کلان داده پرداخته شد.

در نمایشگاه هوش مصنوعی و کلان داده ،که بخشی از نمایشگاه و کنفرانس جهانی TechEx است، برخی از استراتژی‌ها و فن‌آوری‌های نسل بعد به نمایش گذاشته شدند. همچنین فرصتی برای شرکت‌کنندگان فراهم شد تا راه‌کارهای پیاده‌سازی عملی و موفقیت‌آمیز هوش مصنوعی و کلان داده، تأثیر آن در پیشبرد کسب‌وکارها و ساختن آینده‌ای هوشمندتر را بررسی کنند.

در جریان این رویداد دو روزه مسائل و موضوعات گوناگونی مورد بحث قرار گرفت. از جمله مهم‌ترین این مسائل می‌توان به باورهای غلط، سوءبرداشت نسبت به هوش مصنوعی، اصول اخلاقی، الگوریتم‌ها و نحوه برخورد شرکت‌ها با حجم عظیم داده‌ها اشاره کرد.

خرافه‌زدایی از هوش مصنوعی

میرنا مک‌گرگور، رئیس یادگیری ماشین – تدوین و اجرای استراتژی، سرپرست هوش مصنوعی/ یادگیری ماشین مسئولیت‌پذیر در BBC، در جریان سخنرانی خود در نمایشگاه هوش مصنوعی و کلان داده اظهار داشت: « نباید اهمیت اندیشیدن به ماهیت چالش‌ها را نادیده بگیریم. بدون شک، در این مسیر موانعی وجود دارد. اولین مانع را از منظر فنی می‌توان بررسی کرد. در مباحثاتی که پیرامون هوش مصنوعی و کدنویسی الگوریتم‌ها شکل می‌گیرد، اغلب از اصطلاحات فنی – تخصصی استفاده می‌شود. و طبیعی است که برخی از افرادی که قصد دارید با آن‌ها همکاری کنید، با این اصطلاحات آشنایی نداشته باشند.»

«دوم، نظریات بی‌شماری در مورد نحوه‌ی جایگزینی هوش مصنوعی با مشاغل وجود دارد. اینکه تا ۱۰ الی ۲۰ سال آینده، درصد بزرگی از مشاغل از رده خارج می‌شوند، و هوش مصنوعی فن‌آوری سودمندی نیست. اما واقعیت این است که هوش مصنوعی، به عنوان یک فن‌آوری کمکی، ابزاری است که به افراد کمک می‌کند وظایف‌شان را بهتر انجام دهند.»

«علاوه بر این، افراد بسیاری بر این باورند که پیاده‌سازی و اجرای هوش مصنوعی کار آسانی است. شاید برخی می‌پندارند هوش مصنوعی چیزی است که به راحتی می‌توانند آن را از قفسه بردارند و مشکلات خود را با آن حل کنند، یا می‌توانند مقدار کمی از آن را برای حل مشکلات‌ خود به کار گیرند.»

نمایشگاه هوش مصنوعی و کلان داده

اصول اخلاقی و مسئولیت‌پذیری

وی در ادامه اظهار داشت: « اصول اخلاقی و مسئولیت‌پذیری دو مقوله‌ مجزا از هم نیستند. شما باید اهدافی که دنبال می‌کنید را از منظر اجتماعی بررسی کنید. باید رسالت و ارزش‌های سازمانی خود را مد نظر قرار دهید و آن‌ها را در فن‌آوری‌هایی که می‌سازید ، ادغام کنید.»

«به عقیده من، اصلی‌ترین مؤلفه‌های مسئولیت‌پذیری اجتناب از استنباط منفی، ساختن چیزی که کارایی دارد و مهم‌تر از آن ساختن چیزی است که به کاربران خانگی فایده برساند. این باور تا حدودی متأثر از تفکری است که ما راجع به BBC و جنبه جهانی بودن آن داریم. به عقیده من، برای دستیابی به آن به دو چیز نیاز دارید: اندیشمندی – به عبارت دیگر، اندیشیدن به تأثیرات چیزی که قصد دارید بسازید – و همکاری.»

«باید به دیدگاه‌های ذی‌نفعان مختلف توجه کنید، به طوری‌که همکاری و دیدگاه‌های مختلف آنان را در کار خود منعکس کنید. از دیدگاه BBC، مسئولیت‌پذیری پایبندی به ارزش‌هایی است که ما در قالب یک سازمان برای خود تعیین کرده‌ایم. از این روی، استقلال و بی‌طرفی برای ما اهمیت زیادی دارد.»

 

قدرتمند بودن الگوریتم‌ها

ایلیا فیج، مدیر AI at Faculty، در سخنرانی در نمایشگاه هوش مصنوعی و کلان داده اظهار داشت:«هوش عام داریم و اَبَرهوشف و مردم حق دارند که راجع به این مسئله نگران باشند. اما در حال حاضر، سازمان‌ها باید توجه خود را به انصاف، توضیح‌پذیری، حریم خصوصی و قدرتمند بودن معطوف کنند»

«به عقیده من، مردم نسبت به سه مورد اول درک و شناخت کافی دارند. فرض من این است که مردم در مورد این سه مقوله زیاد بحث و گفت‌وگو کرده‌اند و یا مطالب زیادی پیرامون این موضوعات خوانده‌اند. قدرتمند بودن موضوعی است که کمتر به آن پرداخته شده است. منظور از قدرتمند بودن این است که چه زمانی می‌توانید به طور کامل به الگوریتم‌های خود اعتماد کنید یا به صحت عملکرد آن‌ها اطمینان داشته باشید. به عبارت دیگر، چه جایی احتمال دارد الگوریتم شما خطا کند؟ برای رسیدن به پاسخ این سؤال روش‌های متفاوتی وجود دارد، برای مثال، توزیع داده‌ها تغییر کرده، پس می‌توان نتیجه گرفت که مدل کارایی قبل را ندارد. مدل قبلاً عملکرد خوبی داشته، اما الان نه.»

«البته روش‌های دیگری از جمله بررسی قسمت‌های مختلف فضای داده نیز وجود دارد؛ در کدام قسمت‌ عملکرد مدل به صورت فاجعه باری بد است و یا حتی احتمال حمله وجود دارد. بنابراین به روش‌های گوناگونی می‌توانید به الگوریتم حمله کنید و یا داده‌هایی به آن بدهید و آن را فریب دهید. از این روی می‌توان گفت، قدرتمند بودن موضوعی گسترده‌ای است که کمتر از انصاف، حریم خصوصی و توضیح‌پذیری به آن پرداخته شده است.»

درک داده‌ها

مارک ویلسون، سرپرست نظارت بر داده در Handelsbanken، واقع در بریتانیا، می‌گوید: «پس از اینکه داده‌ها را در انبار و سیلو جمع‌آوری کردید، چگونه آن‌ها را کنترل می‌کنید؟ چگونه داده‌ها را استخراج می‌کنید؟ آیا در انجام این کار مهارت دارید؟ زمانی که صحبت از نظارت به میان می‌آید، منظور من این است که آیا شما بر داده‌های خود کنترل دارید؟ به عبارت دیگر، زمانی که مردم به داده‌های شما نگاه می‌کنند، هیچ درکی از آن دارند؟

باعث تأسف است که هنوز بسیاری از سازمان‌ها به این امر تسلط کافی ندارند. اگر نگاهی به کنفرانس‌های فن‌آوری، شرکت‌های ارائه‌دهنده بیندازید، می‌بینید که همه یک داشبورد دارند، همه چیز عالی به نظر می‌رسد. اما آیا آن‌ها اصول و مبانی را، کنترل‌گرهای کیفیت داده را به درستی به اجرا درآورده‌اند؟ نظارت برای سطربندی، مستندسازی زیان و دیکشنری‌ها نیز صدق می‌کند. بنابراین، ممکن است همه چیز بی نقص به نظر برسد، اگر به این پاورپوینت یا هیت‌مپ نگاه کنید، من با اطمینان ۱۰۰ درصدی به شما می‌گویم که این داده‌ها خوب هستند. اما شما این کار را نمی‌کنید، زیرا بسیاری از افراد فقط به داشبوردها توجه می‌کنند.

مسئولیت در قبال داده‌ها

تمامی افرادی که در یک شرکت مشغول به کار هستند مسئولیتی در قبال داده‌ها دارند. برای مثال، کسانی که از داده‌ها استفاده می‌کنند – که طبیعتأ شامل همه افراد می‌شود. افراد داده‌ها را برای ایجاد پاورپوینت و یا ایجاد یک بسته مدیریتی جمع‌آوری می‌کنند و یا داده‌ها را برای ذخیره‌سازی و استفاده در جایی دیگر جمع‌آوری می‌کنند.

با این وجود، برای تدوین استانداردها به یک تابع متمرکز برای نظارت بر داده نیاز دارید. شما باید به صاحبان داده و دیتاست‌های سازمانی خود دسترسی داشته باشید.

بنابراین، افراد باید از وجود استراتژی، چارچوب و قوانین داده مطمئن شوند. علاوه بر آن، تمامی افراد باید به استانداردهای شرکت واقف باشند. و فردی باید وجود داشته باشند که آن‌ها را به اجرا درآورد. زیرا هیچ‌کس حاضر نمی‌شود تکه کاغذی مبهم را مطالعه کند. شما به یک مدیر ارشد داده نیاز دارید. این کار نمی‌توانید به بخش IT محول کنید. داده ارتباطی به IT ندارد. داده ما را توانمند می‌سازد.

سیستم‌ها به شما در انجام امور کمک می‌کنند. اما در نهایت باید فردی مسئول داده‌ها باشد که با کسب‌وکار شما آشنایی داشته باشد.»

لینک کوتاه : https://ainews.ir/?p=6340

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.