خطرات هوش مصنوعی

خطرات هوش مصنوعی چیست ؟

در این مقاله با خطرات هوش مصنوعی بیشتر آشنا میشویم. اگر هوش مصنوعی عمومی و غیرقابل‌کنترل، یا همان هوش مصنوعی “خدایی” باشد، در حال حاضر ما تقریباً نیمی از مسیر را طی کرده‌ایم. هر روز که میگذرد، خطرات ناشی از هوش مصنوعی غیرقابل‌کنترل واقعی و قریب‌الوقوع هستند. زمان کنونی این ساعت، 29 دقیقه تا نیمه‌شب، نشانگر این است که چقدر به نقطه بحرانی نزدیک هستیم که هوش مصنوعی غیرقابل‌کنترل میتواند خطرات وجودی به‌وجود آورد.

خطرات هوش مصنوعی

توسعه هوش مصنوعی

هرچند هنوز آسیبی فاجعه‌بار رخ نداده است، سرعت سرسام‌آور توسعه هوش مصنوعی و پیچیدگی‌های مرتبط با تنظیم‌گری به این معناست که همه ذی‌نفعان باید هوشیار و درگیر بمانند. این موضوع هشدار بی‌مورد نیست، بلکه بر داده‌های واقعی استوار است. ساعت ایمنی هوش مصنوعی سه عامل اساسی را دنبال میکند: افزایش پیچیدگی فناوری‌های هوش مصنوعی، افزایش خودمختاری آن‌ها، و یکپارچگی بیشتر آن‌ها با سیستم‌های فیزیکی.

ما شاهد پیشرفت‌های چشمگیری در این سه زمینه هستیم. بزرگ‌ترین پیشرفت‌ها در یادگیری ماشین و شبکه‌های عصبی رخ داده است. به‌گونه‌ای که اکنون هوش مصنوعی در زمینه‌هایی مانند تشخیص تصویر و گفتار، بازی‌های پیچیده مانند Go و حتی عبور از آزمون‌هایی مانند مصاحبه‌های کدنویسی آمازون و آزمون‌های مدرسه کسب‌وکار از انسان پیشی گرفته است.

با وجود این پیشرفت‌ها، اکثر سیستم‌های هوش مصنوعی امروزی هنوز به هدایت انسان نیاز دارند، همان‌طور که موسسه استنفورد برای هوش مصنوعی انسان‌محور اشاره کرده است. این سیستم‌ها برای انجام وظایف مشخص و محدود طراحی شده‌اند و توسط داده‌ها و دستورات ما هدایت میشوند.

با این حال، برخی سیستم‌های هوش مصنوعی در حال حاضر نشانه‌هایی از استقلال محدود نشان میدهند. خودروهای خودران در تصمیم‌گیری‌های لحظه‌ای درباره مسیریابی و ایمنی مستقل عمل میکنند و الگوریتم‌های توصیه‌گر در پلتفرم‌هایی مانند یوتیوب و آمازون بدون دخالت انسانی محتوا و محصولات را پیشنهاد میدهند. اما هنوز به نقطه استقلال کامل نرسیده‌ایم. همچنان موانع بزرگی وجود دارند، از تضمین ایمنی و نظارت اخلاقی گرفته تا مقابله با پیش‌بینی‌ناپذیری سیستم‌های هوش مصنوعی در محیط‌های غیرساختاریافته.

خطرات هوش مصنوعی

خطرات دیپ فیک

خطرات دیپ‌ فیک‌ ها به یک مشکل جدی تبدیل شده‌اند. در حالی که هوش مصنوعی با سرعتی سرسام‌آور پیش میرود، تنظیم‌گری از آن عقب مانده است. این مسئله به‌ویژه در ایالات متحده صادق است، جایی که تلاش‌ها برای اجرای قوانین ایمنی هوش مصنوعی به‌طور پراکنده انجام شده‌اند. تنظیم‌گری غالباً به ایالت‌ها واگذار شده است و در نتیجه منجر به یک مجموعه قوانین پراکنده و با اثربخشی متفاوت شده است. هیچ چارچوب ملی منسجمی برای اداره توسعه و استقرار هوش مصنوعی وجود ندارد.

ما به یک رویکرد هماهنگ و جهانی برای تنظیم‌گری هوش مصنوعی نیاز داریم: یک نهاد بین‌المللی که توسعه هوش مصنوعی عمومی (AGI) را نظارت کند، مشابه آژانس بین‌المللی انرژی اتمی که برای فناوری هسته‌ای وجود دارد. همزمان نمیتوانیم از مسئولیت شرکت‌هایی مانند گوگل، مایکروسافت و OpenAI، شرکت‌هایی که در خط مقدم توسعه هوش مصنوعی قرار دارند، چشم‌پوشی کنیم. نگرانی‌های فزاینده‌ای وجود دارد مبنی بر اینکه رقابت شدید و فشارهای تجاری برای تسلط بر هوش مصنوعی ممکن است بر خطرات بلندمدت سایه بیندازد. اخیراً OpenAI با تغییر ساختار به سمت سودآوری در صدر اخبار قرار گرفته است.

خطرات هوش مصنوعی

راهکار پیشگیری از خطرات هوش مصنوعی

بخشی از راه‌حل در این است که سیستم‌های هوش مصنوعی دارای مکانیزم‌های ایمنی مانند “کلید توقف” یا درهای پشتی باشند که به انسان‌ها اجازه مداخله بدهد، اگر یک سیستم هوش مصنوعی شروع به رفتار غیرقابل‌پیش‌بینی کند. قانون ایمنی هوش مصنوعی کالیفرنیا شامل چنین مواردی بود. این مکانیزم‌ها باید از ابتدا در سیستم‌های هوش مصنوعی تعبیه شوند، نه اینکه بعدها به‌عنوان یک فکر ثانویه اضافه شوند.

انکار نمیتوان کرد که خطرات واقعی هستند. ما در آستانه همزیستی با ماشین‌هایی هستیم که میتوانند با هوش انسانی برابری کنند یا حتی از آن پیشی بگیرند، چه این اتفاق در یک سال آینده رخ دهد یا در ده سال آینده. اما ما بی‌دفاع نیستیم. فرصت هدایت توسعه هوش مصنوعی در مسیر صحیح هنوز در دسترس ماست. ما میتوانیم آینده‌ای را تضمین کنیم که در آن هوش مصنوعی به یک نیروی کاربردی و مثبت تبدیل شود.

خطرات هوش مصنوعی

کلام آخر

توسعه هوش مصنوعی به سرعت در حال پیشروی است و ما امروزه روز میتوانیم این پیشرفت را حتی در لوازم صوتی مانند اسپیکر و هدفون نیز مشاهده کنیم، و با وجود پیشرفت‌های چشمگیر، خطرات جدی و واقعی را نیز به همراه دارد. نیاز به نظارت و تنظیم‌گری بین‌المللی، همراه با مسئولیت‌پذیری شرکت‌های پیشرو در این حوزه، بیش از هر زمان دیگری احساس میشود. ما هنوز فرصت داریم تا از طریق همکاری جهانی و طراحی مکانیزم‌های ایمنی، مسیر توسعه هوش مصنوعی را به سمتی هدایت کنیم که به نفع بشریت باشد و از وقوع سناریوهای فاجعه‌بار جلوگیری کنیم.