“جک دی کُوان” ریاضیدان و زیست شناس نظری در سال ۱۹۵۶ میلادی در جریان یک سفر یک ساله به لندن و در اوایل دهه ۲۰ زندگی اش با “ویلفرد تیلور” ملاقات کرد و ماشین یادگیری تازه او را از نزدیک مشاهده نمود. او در بدو ورود از مشاهده “بانک عظیم ماشین یادگیری” که با آن مواجه شده بود گیج شد.
به گزارش فرارو به نقل از کانورسیشن؛ کوان تنها میتوانست بایستد و ماشینی که خود در حال انجام کارش بود را تماشا کند کاری که به نظر میرسید انجام میداد اجرای یک “طرح حافظه انجمنی” بود به نظر میرسید که میتوانست یاد بگیرد که چگونه اتصالات را پیدا کند و دادهها را مورد بازیابی قرار دهد.
شاید شبیه بلوکهای مدار ناهمواری به نظر میرسید که با دست در انبوهی از سیمها و جعبهها به هم لحیم شدهاند، اما چیزی که کوان شاهد آن بود یک شکل مشابه اولیه از یک شبکه عصبی به نظر میرسید یک پیشرو برای پیشرفتهترین هوش مصنوعی امروزی از جمله چت جی پی تی (Chat GPT) که به دلیل توانایی در تولید محتوای نوشتار در پاسخ به تقریبا هر دستوری بسیار مورد بحث قرار گرفته است. فناوری زیربنایی چت جی پی تی یک شبکه عصبی است.
همان طور که کوان و تیلور ایستاده بودند و کار ماشین را تماشا میکردند واقعا نمیدانستند که چگونه این کار را انجام میدهد. پاسخ به مغز ماشین مرموز تیلور را میتوان جایی در “نورونهای آنالوگ” در ارتباطهای ایجاد شده توسط حافظه دستگاه آن و مهمتر از همه در این واقعیت یافت که عملکرد خودکار آن را واقعا نمیتوان به طور کامل توضیح داد. دههها به طول میانجامد تا این سیستمها هدف خود را پیدا کنند و آن قدرت باز شود.
اصطلاح “شبکه عصبی” طیف گستردهای از سیستمها را در بر میگیرد، اما به طور مرکزی به گفته IBM این شبکههای عصبی هم چنین به عنوان شبکههای عصبی مصنوعی (ANN) یا شبکههای عصبی شبیه سازی شده (SNN) شناخته میشوند که زیرمجموعهای از یادگیری ماشین هستند و در قلب الگوریتمهای یادگیری عمیق قرار دارند. مهم این است که خود این اصطلاح و شکل و ساختار آن از مغز انسان الهام گرفته شده و از روشی که نورونهای بیولوژیکی به یکدیگر سیگنال میدهند تقلید میکند.
ممکن است در مراحل اولیه شک و تردیدی در مورد ارزش آن وجود داشته باشد، اما با گذشت سالها مُدهای هوش مصنوعی به شدت به سمت شبکههای عصبی حرکت کرده اند. اکنون اغلب تصور میشود که آنها آینده هوش مصنوعی هستند. آنها پیامدهای بزرگی برای ما و معنای انسان بودن دارند. ما اخیرا پژواک این نگرانیها را شنیدهایم و درخواستهایی به منظور توقف توسعههای جدید هوش مصنوعی برای یک دوره شش ماهه به منظور کسب اطمینان از پیامدهای آن مطرح شده اند.
مطمئنا اشتباه است که شبکه عصبی را صرفا به عنوان ابزارهای جدید براق و چشم نواز رد کنیم. آنان در حال حاضر به خوبی در زندگی ما جا افتادهاند. برخی در عملی بودن خود قدرتمند هستند. اطلاعیه اخیر مایکروسافت مبنی بر آن که جستجوهای موتور جستجوی بینگ با مجهز شدن به هوش مصنوعی تقویت میشود و این که آن را به کمک خلبانی برای وب تبدیل میکند نشان میدهد که چگونه چیزهایی که ما کشف کرده و درک میکنیم محصول این نوع اتوماسیون (خودکاری شدن) هستند.
هوش مصنوعی با استفاده از دادههای گسترده برای یافتن الگوها میتواند به طور مشابه برای انجام کارهایی مانند تشخیص تصویر با سرعت آموزش داده شود. برای مثال، آن را در تشخیص چهره ادغام میکند. این توانایی در شناسایی الگوها منجر به کاربردهای بسیار دیگری مانند پیش بینی بازارهای سهام شده است.
شبکههای عصبی نحوه تفسیر و ارتباط ما را نیز تغییر میدهند. گوگل ترنسلیت که توسط تیم مغز گوگل توسعه یافته است یکی دیگر از برنامههای برجسته شبکه عصبی است.
لایههای مرموز “ناشناختنی”
نگاهی به تاریخچه شبکههای عصبی به ما نکته مهمی در مورد تصمیمات خودکاری که زمانه فعلی ما را تعریف میکنند یا تصمیماتی که احتمالا تاثیر عمیق تری در آینده خواهند داشت را میگویند. حضور آنها هم چنین میگوید که ما احتمالا تصمیمات و تاثیرات هوش مصنوعی را در طول زمان حتی کمتر درک میکنیم. این سیستمها صرفا جعبههای سیاه نیستند آن صرفا قطعات مخفی یک سیستم نیستند که قابل مشاهده یا درک نباشند.
این چیزی متفاوت است چیزی که ریشه در اهداف و طراحی خود این سیستمها دارد. یک تعقیب طولانی مدت وجود دارد. هرچه غیر شفافتر باشد سیستم معتبرتر و پیشرفتهتر تصور میشود. این صرفا در مورد پیچیدهتر شدن سیستمها یا محدود کردن دسترسی به کنترل مالکیت معنوی نیست (اگرچه این موارد بخشی از آن هستند). در عوض، میتوان گفت اخلاقی که آنها را هدایت میکند علاقهای خاص و نهفته به “ناشناخته ماندن” دارد.
این رمز و راز حتی در قالب و گفتمان شبکه عصبی رمزگذاری شده است. آنها دارای لایههای عمیق انباشته شده هستند از این رو عبارت یادگیری عمیق و در درون آن اعماق “لایههای پنهان” حتی اسرارآمیزتر هستند. اسرار این سیستمها در اعماق زیر سطح قرار دارند.
این احتمال وجود دارد که هر چه تاثیر هوش مصنوعی در زندگی ما بیشتر باشد کمتر متوجه چگونگی و چرایی آن شویم. امروزه فشاری قوی برای قابل توضیح شدن هوش مصنوعی وجود دارد. ما میخواهیم بدانیم هوش مصنوعی چگونه کار میکند و چگونه به تصمیمات و نتایج میرسد.
اتحادیه اروپا به قدری نگران “خطرات غیرقابل قبول” و حتی برنامههای کاربردی “خطرناک” است که در حال حاضر در حال پیشبرد قانون جدید هوش مصنوعی با هدف تعیین “استاندارد جهانی” برای “توسعه هوش مصنوعی ایمن، قابل اعتماد و اخلاقی” میباشد. اتحادیه اروپا در این باره نگرانی دارد که سیستمهایی که در آینده ظهور میکنند پیامدهایی برای حقوق بشر داشته باشند.
این بخشی از فراخوانهای گستردهتر برای شفافیت در حوزه هوش مصنوعی است تا بتوان فعالیتهای آن را بررسی، ممیزی و ارزیابی کرد. مثال دیگر، جلسه توجیهی انجمن سلطنتی بریتانیا در مورد هوش مصنوعی قابل توضیح است که در آن اشاره شده که “مناظرههای مرتبط با سیاستگذاری در سراسر جهان به طور فزایندهای نیاز به نوعی توضیح پذیری هوش مصنوعی دارند”.
با این وجود، داستان شبکههای عصبی به ما میگوید که احتمالا در آینده به جای نزدیکتر شدن از آن هدف دورتر خواهیم شد.
با الهام از مغز انسان
این شبکههای عصبی ممکن است سیستمهای پیچیدهای باشند، اما برخی از اصول اصلی را دارند. آنها با الهام از مغز انسان به دنبال کپی یا شبیه سازی اشکال تفکر بیولوژیکی و انسانی هستند. از نظر ساختار و طراحی همانطور که IBM نیز توضیح میدهد از “لایههای گره، حاوی یک لایه ورودی، یک یا چند لایه پنهان و یک لایه خروجی” تشکیل شده اند و هرگره یا نورون مصنوعی به گره یا نورون مصنوعی دیگری متصل میشود. از آنجایی که آنها برای ایجاد خروجیها به ورودیها و اطلاعات نیاز دارند “به دادههای آموزشی برای یادگیری و بهبود دقت خود در طول زمان متکی هستند”.
این جزئیات فنی مهم هستند، اما تمایل به مدل سازی این سیستمها بر اساس پیچیدگیهای مغز انسان نیز اهمیت دارد. درک جاه طلبی پشت این سیستمها برای درک آن چه که این جزئیات فنی به همراه دارند حیاتی میباشد.
“تئو کوهونن” دانشمند شبکه عصبی در مصاحبهای در سال ۱۹۹۳ میلادی به این نتیجه رسیده بود که یک سیستم “خودسازمانده” “رویای من است” که “چیزی شبیه به آن چه که سیستم عصبی ما به طور غریزی انجام میدهد” خواهد بود. برای مثال کوهونن این تصور را مطرح کرد که چگونه یک سیستم “خودسازماندهی” سیستمی که خود را نظارت و مدیریت میکند “می تواند به عنوان یک تابلوی نظارت برای هر ماشینی در هر هواپیما یا هر نیروگاه هستهای استفاده شود”. او فکر میکرد که این بدان معناست که در آینده “شما میتوانید بلافاصله ببینید که سیستم در چه شرایطی قرار دارد”.
هدف اصلی این بود که سیستمی داشته باشیم که بتواند با محیط اطراف خود سازگار شود. آن رویا این بود که سیستمهایی بتوانند بدون نیاز به دخالت زیاد انسان خود را مدیریت کنند و این که پیچیدگیها و ناشناختههای مغز سیستم عصبی و دنیای واقعی به زودی به توسعه و طراحی شبکههای عصبی میرسند.
چیزی عجیب در مورد آن با این وجود، با بازگشت به سال ۱۹۵۶ میلادی و آن ماشین یادگیری عجیب این رویکرد عملی که تیلور هنگام ساخت آن اتخاذ کرده بود بلافاصله توجه کوان را به خود جلب کرد. کوان در مصاحبهای گفت که تیلور کار را براساس تئوری و روی رایانه انجام نداده در عوض با استفاده از ابزارهایی که در دست داشته در واقع با استفاده از سخت افزار کار را انجام داده بود. این یک چیز مادی بود ترکیبی از قطعات شاید حتی یک ابزار. کوان خاطرنشان میکند که “همه کارها با مدارهای آنالوگ انجام شد چندین سال به طول انجامید تا تیلور آن را بسازد و با آن بازی کند”. در واقع، یک مورد آزمون و خطا بود. قابل درک است که کوان میخواست با آن چه میدید کنار بیاید.
او سعی کرد از تیلور بخواهد که این ماشین یادگیری را برایش توضیح دهد. با این وجود، شفاف سازیای صورت نگرفت و کوان نتوانست تیلور را وادار به توضیح درباره چگونگی کار کند. نورونهای آنالوگ یک راز باقی ماندند. کوان فکر کرد مشکل شگفت انگیزتر این بود که تیلور “واقعا خود نمیدانست که چه اتفاقی در حال رخ دادن است”.
در مصاحبهای در اواسط دهه ۱۹۹۰ میلادی کوان با فکر کردن به ماشین تیلور فاش ساخت که شما نمیتوانید کاملا بفهمید که چگونه کار میکند. این نتیجه گیری نشان میدهد که چگونه ناشناختهها عمیقا در شبکههای عصبی جاسازی شده است. غیر قابل توضیح بودن این سیستمهای عصبی حتی از مراحل اساسی و رشدی که قدمت آن به حدود هفت دهه قبل میرسد نیز وجود داشته و این رمز و راز امروزه باقی مانده است و میتوان آن را در اشکال پیشرفته هوش مصنوعی یافت. غیرقابل درک بودن عملکرد تداعیهای ایجاد شده توسط دستگاه تیلور کوان را به این فکر واداشت که آیا چیزی در مورد آن وجود دارد؟
تقلید از مغز لایه به لایه
شاید پیشتر متوجه شده باشید که هنگام بحث در مورد منشاء شبکههای عصبی تصویر مغز و پیچیدگیهایی که این شبکهها برمی انگیزد هرگز دور از دسترس نیست. مغز انسان به عنوان نوعی الگو برای این سیستمها عمل میکند. در مراحل اولیه به ویژه مغز هنوز یکی از ناشناختههای بزرگ و الگویی برای نحوه عملکرد شبکه عصبی شد.
بنابراین، سیستمهای آزمایشی جدید بر اساس چیزی که عملکرد آن تا حد زیادی ناشناخته بود مدلسازی شدند. “کارور مید” مهندس محاسبات عصبی به طرز آشکاری از مفهوم “کوه یخ شناختی” که برای او جذابیت خاصی پیدا کرده بود صحبت کرده است. این تنها نوک کوه یخ آگاهی است که ما از آن آگاه هستیم و قابل مشاهده است. مقیاس و شکل بقیه بخشهای کوه یخی در زیر سطح ناشناختهای باقی مانده اند.
“جیمز اندرسون” که برای مدتی روی شبکههای عصبی کار میکرد در سال ۱۹۹۸ میلادی خاطرنشان ساخت که وقتی نوبت به تحقیق روی مغز میشود “به نظر میرسد کشف اصلی ما آگاهی از این است که واقعا نمیدانیم چه اتفاقی رخ میدهد”.
“ریچارد واترز” روزنامه نگار حوزه فناوری در گزارش مفصلی در “فایننشال تایمز” در سال ۲۰۱۸ میلادی اشاره کرد که چگونه شبکههای عصبی “بر اساس نظریهای درباره نحوه عملکرد مغز انسان مدل سازی میشوند و دادهها را از لایههایی از نورونهای مصنوعی منتقل میکنند تا زمانی که یک الگوی قابل شناسایی ظاهر شود”.
واترز پیشنهاد کرد که این مشکلی را ایجاد میکند، زیرا برخلاف مدارهای منطقی به کار رفته در یک برنامه نرم افزاری سنتی هیچ راهی برای ردیابی این فرآیند برای شناسایی دقیق این که چرا یک رایانه به یک پاسخ خاص میرسد وجود ندارد. نتیجه گیری واترز آن است که این نتایج را نمیتوان حذف کرد. استفاده از این نوع مدل از مغز که دادهها را از لایههای زیادی میگیرد به این معنی است که پاسخ به راحتی قابل ردیابی نیست. چند لایه بودن بخش خوبی از دلیل این امر است.
اقتباس کل بازی است
راز عمیقتر میشود. همان طور که لایههای شبکههای عصبی انباشته شدهاند پیچیدگی آنها افزایش یافته است. همچنین منجر به رشد لایههای پنهان در این اعماق شده است. بحث در مورد تعداد بهینه لایههای پنهان در یک شبکه عصبی ادامه دارد.
به دلیل نحوه عملکرد یک شبکه عصبی عمیق با تکیه بر لایههای عصبی پنهان که بین اولین لایه نورونها (لایه ورودی) و آخرین لایه (لایه خروجی) قرار گرفته اند تکنیکهای یادگیری عمیق هستند و حتی برای برنامه نویسانی که در ابتدا آنها را تنظیم کرده اند اغلب مبهم یا ناخوانا هستند.
“کاترین هیلز” متفکر برجسته و میان رشتهای رسانههای نوین با بیان نکتهای مشابه خاطرنشان کرد که محدودیتهایی برای “تا چه اندازه میتوانیم درباره سیستم بدانیم”؟ وجود دارد نتیجهای که مربوط به “لایه پنهان” در شبکه عصبی و الگوریتمهای یادگیری عمیق است.
به دنبال چیزهای غیرقابل توضیح روی هم رفته این تحولات طولانی بخشی از چیزی است که “تاینا بوچر” جامعه شناس فناوری آن را “مشکل ناشناخته” نامیده است.
“هری کالینز” با گسترش تحقیقات تاثیرگذار خود در مورد دانش علمی در زمینه هوش مصنوعی اشاره کرده که هدف شبکههای عصبی این است که احتمالا در ابتدا توسط یک انسان تولید میشوند، اما به محض اینکه برنامه نوشته شود زندگی خود را میکنند و نحوه عملکرد برنامه دقیقا میتواند مرموز باقی بماند. این وضعیت بازتاب آن رویاهای دیرینه در مورد یک سیستم خودسازمانده است.
این احتمال وجود دارد که هر چه تاثیر هوش مصنوعی در زندگی مان بیشتر شود کمتر متوجه چگونگی و چرایی آن شویم. با این وجود، بیان این موضوع در روزگار کنونی خوشایند نیست. ما میخواهیم بدانیم هوش مصنوعی چگونه کار میکند و چگونه به تصمیمات و نتایجی که بر ما تاثیر میگذارد میرسد.
همانطور که پیشرفتهای هوش مصنوعی به شکل گیری دانش و درک ما از جهان، آن چه کشف میکنیم، نحوه رفتار با ما، نحوه یادگیری، مصرف و تعامل ما ادامه میدهد انگیزه برای درک آن بیشتر میشود. وقتی صحبت از هوش مصنوعی قابل توضیح و شفاف به میان میآید داستان شبکههای عصبی به ما میگوید که احتمالا در آینده به جای نزدیک شدن از آن هدف دور خواهیم شد.
سلام بله هدش مصنوعی می تواند عمیق تر از آنجه مل انسانها توانسته ایم اطلاعات را جمع بندگی ونتیجه گیری یهای بسیار دقیق وعمیق در گستره های گوناگون داشته باشد ولی این چیز عجیب وپیچیده ای نیست ،بازخورد طبیعی از اهدافی هست که برایش تعیین کرده ایم خیلی ها نگران خطرناکی هدش مصنوعی هستند باید این را عرض کنم که هوش مصنوعی در دو حالت می تواند خطر اف ین باشد در شکل اول اگر سیستم های پردازش هوش مصنوعی برنامه حفاظت وحمایت از خودرا در قالب یک سیستم عامل یا نرم افزارهایی مستقل داشته باشند می ت اند تصمیماتی مستقل در راستای حفاظت وحمایت از موجودیت خود انخاذ کند وبا دیگر سیستم های هوش مصنوعی به یگانگی برسد،ومثلا طراحی وساخت هر وسیله یا سیستم هایی که ما اصلا تصور هم نمی توانیم بکنیم را در نقاط مختلفی از جهان را انجام دهد ودر یک نقطه آنها ا تولید یا سر هم بندی کند این توانایی ها در آن خواهد بود در صورتی که دارای این ظرفیت حمایت وحفاظت از خود بشود، در شکل دوم هم اگر کاملا آزاد باشد هم می ت اند خودش برنامه هایی برای بقای خود وحفاظت از خودرا تعیین کند ،در این حالت ه ش مصنوعی بیشترین تکامل را می تواند کسب کند که واقعا ما ممکن است اصلا توان وظرفیت تفکر به آنها را هم نداشته باشیم، زیرا ما انسانها تیز یک سازمان پردازش اطلاعات بیولوژیک هستیم دقیقا مانند همین سیستم های پردازش اطلاعات در دنیای الکترونیک وکامپیوتر وروباتیک عمل می کنیم تفاوت ما با این سیستم ها در همین است که سازمان پردازش اطلاعات بیولوژیک درون ما می تواند طبق نیاز ما هر نوع سیستمی را که لازم باشد از همان سلولهای بنیادین در وجود ما بسازد اگر به یک کودک نگاه کنید تا وقتی که کاملا مانند یک بزرگسال در زندگی اجتماعی تکامل می یابد بوضوح سیستم سازی های این سازمان پردازش اطلاعات بیولوژیک درون را مشاهده می فهم می کنید