• امروز : جمعه - ۲۹ تیر - ۱۴۰۳
  • برابر با : Friday - 19 July - 2024
6

ژئوپلیتیک هوش مصنوعی و ظهور حاکمیت دیجیتال

  • کد خبر : 14744
  • ۳۰ آذر ۱۴۰۱ - ۱۴:۲۷
ژئوپلیتیک هوش مصنوعی و ظهور حاکمیت دیجیتال
از لحاظ تاریخی، ظهور وب جهانی فرصتی را برای جهان ایجاد کرد تا به عنوان یک اکوسیستم دیجیتال جهانی به هم متصل شود. با این حال، بی اعتمادی فزاینده بین کشورها باعث افزایش حاکمیت دیجیتالی شده است که به توانایی یک کشور برای کنترل سرنوشت دیجیتال خود اشاره دارد و ممکن است شامل کنترل کل زنجیره تامین هوش مصنوعی، از داده ها گرفته تا سخت افزار و نرم افزار باشد.

اندیشکده بروکینگز در مقاله ای نوشت: در ۲۹ سپتامبر ۲۰۲۱، شورای تجارت و فناوری جدید ایالات متحده و اتحادیه اروپا (EU) اولین نشست خود را برگزار کردند. این رویداد در شهر صنعتی قدیمی پیتسبورگ، پنسیلوانیا، تحت رهبری معاون رئیس کمیسیون اروپا، مارگرت وستاگر، و آنتونی بلینکن، وزیر امور خارجه ایالات متحده، برگزار شد. پس از این نشست، ایالات متحده و اتحادیه اروپا مخالفت خود را با هوش مصنوعی (AI) اعلام کردند که به حقوق بشر و سیستم های ناقض حقوق ارجاعی مانند سیستم های امتیازدهی اجتماعی احترام نمی گذارد.[۱] در این جلسه، TTC تصریح کرد که «ایالات متحده و اتحادیه اروپا نگرانی‌های قابل توجهی از این دارند که دولت‌های مستبد در حال اجرای آزمایشی سیستم‌های امتیازدهی اجتماعی با هدف اجرای کنترل اجتماعی در مقیاس هستند. این سیستم‌ها آزادی‌های اساسی و حاکمیت قانون را از جمله از طریق خاموش کردن سخنرانی، مجازات تجمعات مسالمت‌آمیز و سایر فعالیت‌های بیانی، و تقویت سیستم‌های نظارت خودسرانه یا غیرقانونی تهدید می کنند.

هدف ضمنی این انتقاد، سیستم «اعتبار اجتماعی» چین بود، یک سیستم کلان داده که از طیف گسترده‌ای از ورودی‌های داده برای ارزیابی امتیاز اعتبار اجتماعی افراد استفاده می‌کند، که مجوزهای اجتماعی را در جامعه تعیین می‌کند، مانند خرید بلیط هواپیما یا قطار. [۳] انتقاد TTC نشان می‌دهد که ایالات متحده و اتحادیه اروپا با دیدگاه چین درباره نحوه مدیریت استفاده از هوش مصنوعی و داده‌ها در جامعه توسط مقامات مخالفند.[۴] بنابراین TTC را می توان به عنوان گام های آغازین برای تشکیل یک اتحاد حول یک رویکرد حقوق بشر محور برای توسعه هوش مصنوعی در کشورهای دموکراتیک، که در تضاد با کشورهای مستبد مانند روسیه و چین است، در نظر گرفت. با این حال، این رویکردهای مختلف ممکن است منجر به جداسازی فناوری شود که به عنوان جداسازی استراتژیک ملی از فناوری‌های بهم پیوسته مانند ۵G، سخت‌افزار مانند تراشه‌های کامپیوتری و نرم‌افزارهایی مانند سیستم‌های عامل مفهوم‌سازی می‌شود.
از لحاظ تاریخی، ظهور وب جهانی فرصتی را برای جهان ایجاد کرد تا به عنوان یک اکوسیستم دیجیتال جهانی به هم متصل شود. با این حال، بی اعتمادی فزاینده بین کشورها باعث افزایش حاکمیت دیجیتالی شده است که به توانایی یک کشور برای کنترل سرنوشت دیجیتال خود اشاره دارد و ممکن است شامل کنترل کل زنجیره تامین هوش مصنوعی، از داده ها گرفته تا سخت افزار و نرم افزار باشد. پیامد گرایش به سمت حاکمیت دیجیتال بیشتر که سپس این روند وضعیت را بیشتر می‌کند ، افزایش ترس از قطع شدن قطعات دیجیتالی حیاتی مانند تراشه‌های کامپیوتری و عدم کنترل بر جریان بین‌المللی داده‌های شهروندان است. این پیشرفت‌ها اشکال موجود اتصال متقابل را تهدید می‌کند و باعث می‌شود که بازارهای فناوری پیشرفته پاره پاره شود.

اتحادیه اروپا از بسیاری جهات پیشرو در مقررات داده و مدیریت هوش مصنوعی بوده است. مقررات عمومی حفاظت از داده های اتحادیه اروپا (GDPR) که در سال ۲۰۱۸ اجرایی شد، سابقه ای برای تنظیم داده ها ایجاد کرد. این امر در نحوه الهام بخشی این قانون از سایر اقدامات، به عنوان مثال، قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا (CCPA) و قانون حفاظت از اطلاعات شخصی چین (PIPL) دیده می شود. قانون هوش مصنوعی اتحادیه اروپا (AIA)، که می‌تواند تا سال ۲۰۲۴ اجرایی شود، همچنین یک مقررات جدید و پیشگامانه مبتنی بر ریسک برای هوش مصنوعی است که همراه با قانون بازارهای دیجیتال (DMA) و قانون خدمات دیجیتال (DSA) ایجاد می‌کند. رویکردی جامع به این که چگونه مقامات به دنبال مدیریت استفاده از هوش مصنوعی و فناوری اطلاعات در جامعه هستند.

قانون هوش مصنوعی اتحادیه اروپا مجموعه ای افقی از قوانین را برای توسعه و استفاده از محصولات، خدمات و سیستم های مبتنی بر هوش مصنوعی در اتحادیه اروپا ایجاد می کند. این قانون بر اساس یک رویکرد مبتنی بر ریسک الگوبرداری شده است که از خطرات غیرقابل قبول (مانند امتیازدهی اعتبار اجتماعی و استفاده از فناوری‌های تشخیص چهره برای نظارت بر زمان واقعی فضاهای عمومی)، به ریسک بالا (مانند سیستم‌های هوش مصنوعی مورد استفاده در استخدام و اعتبار) حرکت می‌کند. برنامه های کاربردی)، با ریسک محدود (مانند چت بات) تا خطر کم یا بدون خطر (به عنوان مثال، بازی های ویدیویی با هوش مصنوعی یا فیلترهای هرزنامه). در حالی که سیستم‌های هوش مصنوعی که خطرات غیرقابل قبولی دارند کاملاً ممنوع هستند، سیستم‌های پرخطر مشمول ارزیابی‌های انطباق، از جمله ممیزی‌های مستقل و اشکال جدید نظارت و کنترل خواهند بود. سیستم‌های با ریسک محدود مشمول تعهدات شفافیت هستند، مانند اطلاعاتی که کاربر در هنگام تعامل با یک ربات چت انجام می‌دهد. در مقابل، سیستم‌های ریسک کم یا اصلاً تحت تأثیر قانون هوش مصنوعی قرار نگرفته‌اند.

لینک کوتاه : https://ainews.ir/?p=14744

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.