• امروز : دوشنبه - ۱۴ آذر - ۱۴۰۱
  • برابر با : Monday - 5 December - 2022
1

هوش مصنوعی می‌تواند ابطال‌پذیری فرضیه‌ های خود را بسنجد؟

  • کد خبر : 13336
  • ۱۵ شهریور ۱۴۰۱ - ۱۰:۲۸
هوش مصنوعی می‌تواند ابطال‌پذیری فرضیه‌ های خود را بسنجد؟
برای تشخیص بافت تومور می‌توان هوش مصنوعی (هوم) را آموزش داد، امّا این هوش قادر است ابطال‌پذیری فرضیه‌ های خود را بسنجد و یا تصمیم بگیرد؟

گروهی از مرکز پژوهشی تشخیص پروتئین دانشگاه روهر بوخوم (PRODI) رویکرد جدیدی را توسعه می‌دهد که شفافیت و دقت تصمیم هوش مصنوعی را بهبود می‌بخشد. پژوهشگران به سرپرستی استاد تمامْ اکسل موسیگ این رویکرد را در مجله مدیکال ایمیج آنالیز به صورت آنلاین در ۲۴ آگوست ۲۰۲۲ منتشر کرده‌اند.

ابطال‌پذیری فرضیه‌های هوش مصنوعی به دست خودش!

در این پژوهش، اکسل موسیگ، دانشمند بیوانفورماتیک با پروفسور آندریا تانپفل، رئیس مؤسسه آسیب شناسی، پروفسور آنک ریناچر-شیک متخصص سرطان‌شناسی از بیمارستان سنت جوزفِ دانشگاه روهر و پروفسور کلاوس گرورت، زیست‌فیزیکدان و مدیر موسس PRODI، همکاری کرده است.

این گروه با توسعه‌ی شبکه‌ای عصبی، هوش مصنوعی‌ای را ایجاد کردند که قادر به طبقه بندی نمونه بافت تومور است؛ برای این منظور، آنها تعداد زیادی تصویر بافت مایکروسکوپی را به هوش مصنوعی دادند که برخی از آنها حاوی تومور بودند، و برخی دیگر بدون تومور. اکسل موسیگ شرح می‌دهد: شبکه‌های عصبی نوعی جعبه‌ی غیر شفاف هستند:  یعنی مشخص نیست که شبکه کدام ویژگی‌های شناساگر را از داده‌های آموزشی می‌آموزد.  آن‌ها در تضاد با متخصصان انسانی، توانایی توضیح تصمیمات خود را ندارند.

ابطال‌پذیری

دیوید شوماچر، دانشمند بیوانفورماتیک که در این مطالعه همکاری داشته می‌افزاید: «برای کاربردهای پزشکی به هر روی مهم است که هوش مصنوعی قادر به توضیح تصمیم خود باشد و به عبارتی قابل اعتنا».

نقشه‌ی فعال‌سازی محل تومور را شناسایی می‌کند

بنابراین، هوش مصنوعی توضیح‌پذیر گروه بوخوم مبتنی بر گزاره‌های سنجش‌پذیر علمی است: یا به بیانی، ابطال‌پذیری فرضیه‌ها. مثلاً، اگر یک فرضیه نادرست است، چنین واقعیتی باید از راه آزمایش و آزمودن قابل اثبات یا رد باشد. معمولاً هوش مصنوعی از اصل استدلال استقرایی پیروی می‌کند: یعنی با استفاده از مشاهدات عینی، داده های آموزشی، مدل کلی‌ای ایجاد می‌کند که بر اساس آن تمام مشاهدات بعدی را نیز ارزیابی می‌نماید.

۲۵۰ سال پیش، دیوید هیوم فیلسوف، به این مشکل ‌اساسی پرداخته بود: «بزرگی تعداد مشاهده‌ی قوهای سفید مهم نیست، هرگز نمی‌توانیم از این داده‌ها نتیجه بگیریم که همه‌یِ قوها سفید هستند و هیچ قوی سیاهی وجود ندارد. بنابراین، اصطلاحاً علم از منطق قیاسی استفاده می‌کند. در این رویکرد، فرضیه‌یِ کلی نقطه آغازی است. به عنوان نمونه، این فرض که همه‌یِ قوها سفید هستند، زمانی که یک قو سیاه دیده شود، باطل می‌شود». استفانی شرنر، فیزیکدانی که در این مطالعه مشارکت داشته است می گوید: در نگاه نخست، تقریباً هوش مصنوعی استقرایی و روش علمی قیاسی ناسازگار به نظر می‌آیند، امّا پژوهشگران راهی را پیدا کرده‌اند که در آن شبکه عصبی جدید نه تنها نمونه بافت تومور یا بدون تومور را طبقه‌بندی می‌کند بلکه‌ نقشه فعال سازی بافت مایکروسکوپی را نیز شناسا می‌سازد.

نقشه‌ی فعال‌سازی بر ابطال‌پذیری فرضیه‌ بنا شده است، یعنی فعال‌سازی به دست آمده از شبکه عصبی دقیقاً با مناطق تومور نمونه مطابقت عینی دارد. برای ازمودنِ این فرضیه، می‌توان از روش‌های جهش‌زایی جهت‌دار مولکولی استفاده کرد. اکسل موسیگ نتیجه می‌گیرد: به لطف ساختارهای بین‌رشته‌ای در PRODI، در آینده ما بهترین پیش نیازها را برای گنجاندن رویکردی مبتنی بر فرضیه در توسعه‌ی هوش مصنوعی زیست‌نشانگری که قابل اعتماد باشد داریم، به عنوان نمونه، هوش مصنوعی‌ای که قادر به تمایز دادن بین برخی زیرگروه های تومور مرتبط با درمان باشد.

 

لینک کوتاه : https://ainews.ir/?p=13336

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.