logo03

آیا جامعه بین‌المللی حریف هوش مصنوعی خواهد شد؟

آیا جامعه بین‌المللی حریف هوش مصنوعی خواهد شد؟
استفاده نظامی و ویرانگر از هوش مصنوعی تاکنون بیشتر موضوع داستان‌ها و فیلم‌های علمی-تخیلی بوده است
علی غفاری مرندی

دنیای پردازش آنلاین: هوش مصنوعی پدیده جدیدی نیست. اما رشد دور از انتظار این فناوری در یکی دو سال اخیر موجب شده تا ناگهان در مرکز توجه جهان قرار بگیرد؛ یک فناوری استثنایی که می‌تواند یک انقلاب اقتصادی-سیاسی-اجتماعی کم‌سابقه را برای بشریت رقم بزند.

به گزارش bbc از نظر برخی کارشناسان، این انقلاب همین حالا آغاز شده است. در حال حاضر بخش‌های مختلف اقتصاد و جامعه در برخی کشورها به شکل قابل ملاحظه‌ای از کمک هوش مصنوعی بهره می‌برند؛ بخش‌هایی مانند خدمات درمانی، حمل و نقل، خدمات مالی، آموزش و پرورش، حفاظت از محیط زیست و البته امور امنیتی و نظامی.

استفاده نظامی و ویرانگر از هوش مصنوعی تاکنون بیشتر موضوع داستان‌ها و فیلم‌های علمی-تخیلی بوده است

در عین حال سرعت توسعه این فناوری نیز بسیاری را شوکه کرده است. در سال ۲۰۱۸ که برای نخستین بار جی‌پی‌تی-۱ راه‌اندازی شد، این مدل هوش مصنوعی از ۱۱۰ میلیون «پارامتر» برخوردار بود؛ یکی از واحدهای اندازه‌گیری برای درک میزان پیشرفت مدل هوش مصنوعی. در سال ۲۰۲۳ که جی‌پی‌تی-۴ در دسترس عموم قرار گرفت، تعداد پارامترهای این مدل از یک تریلیون (هزار میلیارد) «پارامتر» فراتر رفته بود؛ تفاوتی که نشان‌دهنده رشد خارق‌العاده و نجومی این فناوری است.

این انتظار وجود دارد که قدرت پردازش و سرعت هوش مصنوعی ظرف پنج سال به ۱۰۰ تریلیون پارامتر برسد که از نظر عمق پیچدگی و توانایی یادگیری و هوش عمومی با مغز انسان برابری خواهد کرد. اما این فناوری نیز مانند هر تکنولوژی دیگری، همانقدر که می‌تواند عصای دست بشریت باشد، تهدیدی مرگبار نیز هست. اگر هوش مصنوعی بتواند به عنوان مثال، درمان بیماری‌های لاعلاج را کشف کند، آیا نمی‌تواند ویروسی بسازد که در دوره‌ای بسیار کوتاه میلیون‌ها نفر را از پای در آورد؟

یا مثلا همان هوش مصنوعی که قرار است رانندگی خودورهایمان را برعهده بگیرد، نمی‌تواند تانک براند؟ اگر هوش مصنوعی می‌تواند میزان بهره‌وری تولید کفش و موبایل و کامپیوتر را به شکلی خارق‌العاده افزایش دهد، نمی‌تواند در توسعه خیره‌کننده و تولید انبوه تسلیحات جنگی به کار برود؟

همین دلایل موجب شده تا هوش مصنوعی ظرف چند سال اخیر به یکی از مهم‌ترین دغدغه‌های ژئوپولتیک در جهان تبدیل شود و قدرت‌های بزرگ مانند آمریکا و چین، منابع گسترده‌ای را صرف توسعه و به خدمت گرفتن این فناوری بکنند. در حال حاضر این باور وجود دارد که هرکس بتواند از نظر توسعه هوش مصنوعی از دیگران پیشی بگیرد، در دورانی که بعد از انقلاب هوش مصنوعی شکل خواهد گرفت، دست بالا را خواهد داشت.

از نگاه اساتید علوم سیاسی مانند «هنری کسینجر» یا «ایان برمر»، هوش مصنوعی در حد و اندازه‌های بمب اتم می‌تواند ساختار بین‌المللی موجود را تحت تاثیر قرار دهد و مناسبات قدرت در این ساختار را زیر و رو کند. چرا که به رغم جلو بودن امریکا، چین و کشورهای اروپایی از باقی دنیا در توسعه هوش مصنوعی، کماکان شکل دسترسی به این ابزار قدرت‌آفرین، به شدت آسان‌تر خواهد بود.

در حال حاضر تسلیحات نظامی کنترل از راه دور به سرعت در حال توسعه است، اما همواره کنترل این تسلیحات در دست انسان بوده است

هوش مصنوعی، یک سخت‌افزار جدید مانند کامپیوتر یا یک نرم‌افزار جدید مانند ویندوز یا یک فناوری انقلابی مانند اینترنت نیست. آیفون، فیس‌بوک و تیک‌تاک، زندگی بشر را متحول کردند و همه‌شان نیز کاربردهای دوگانه دارند. اما هیچ کدام تا امروز به حدی رشد نکرده‌اند که بتوانند نظم بین‌المللی موجود را به شکل بنیادین به چالش بکشند یا تهدیدی برای موجودیت بشر توصیف شوند.

حتی اگر در حال حاضر مشخصا سطح دسترسی سخت‌افزاری و نرم‌افزاری کشورهای «جنوب جهانی» (که ایران هم یکی از آنهاست)، به هوش مصنوعی شبیه به کشورهای غربی یا چین نباشد، این فرض وجود دارد که با توجه به سرعت رشد فناوری‌های کامپیوتری، دسترسی همه به مدل‌های بسیار پیشرفته هوش مصنوعی در دهه‌های آینده بسیار آسان خواهد بود.

بماند که اصولا بخش مهمی از توسعه هوش مصنوعی در دنیای امروز، در کنترل شرکت‌های خصوصی است؛ شرکت‌هایی که بر اساس تعاریف و نظریه‌های روابط بین‌الملل، سال‌هاست به بازیگرانی بسیار قدرتمند در سطح بین‌المللی بدل شده‌اند و کنترل ابزارهایی را در دست دارند که تا پیش از این تنها در کنترل دولت-ملت‌ها بود.

وقتی در روزهای پایانی جنگ جهانی دوم، امریکا از بمب اتمی استفاده کرد، نخبگان مهم جامعه بشریت مانند آلبرت انیشتین و برتراند راسل هشدار دادند که توسعه، گسترش و استفاده از تسلیحات هسته‌ای در جنگ‌ها می‌تواند حیات بر روی کره زمین را به نابودی کامل بکشاند. در پی همین هشدارها و کارزاری طولانی و فراگیر در سطح جهانی، «پیمان منع گسترش تسلیحات هسته‌ای» (NPT) شکل گرفت تا جلوی نابودی کامل بشریت گرفته شود.

این روزها که در محافل سیاست بین‌الملل، هوش مصنوعی به طور معمول با بمب اتم مقایسه می‌شود، این پرسش نیز به شکلی جدی وجود دارد که چه باید کرد؟ آیا راهی برای کنترل هوش مصنوعی وجود دارد؟ چه کسی باید مسؤولیت مقابله با تهدیدهای احتمالی ناشی از هوش مصنوعی را بر عهده بگیرد؟

چه کار باید کرد که مثلا گروه‌هایی شبیه به القاعده یا داعش، در ۱۰، ۲۰ یا ۳۰ سال آینده به فناوری مورد نیاز برای ساخت ویروس‌های بسیار مرگبار یا حملات سایبری بسیار پیچیده دست پیدا نکنند؟

چطور می‌توان مطمئن شد که روزی، کسی در این دنیا یک «ترمیناتور» یا ربات مسلح آدم‌کش، تولید نکند؟

آیا «آژانس بین‌المللی هوش مصنوعی» تشکیل می‌شود؟

در حال حاضر در دنیا هیچ مقرراتی برای کنترل توسعه هوش مصنوعی وجود ندارد. از این زاویه، سال ۲۰۲۳ یکی از پرکارترین سال‌ها برای سیاستمداران – به ویژه در غرب – بود تا نخستین گام‌های جدی را در این مسیر بردارند.
از آن جمله در ماه مه سال ۲۰۲۳ میلادی، کشورهای عضو گروه هفت (امریکا، بریتانیا، فرانسه، آلمان، کانادا، ایتالیا و ژاپن) سند کوتاهی را به نام «روند هیروشیما» منتشر کردند که در آن اصول مورد نظر این کشورها برای «توسعه امن و اخلاقی» هوش مصنوعی ذکر شده بود. در این دستورالعمل پیشنهادی از دست‌اندرکاران توسعه هوش مصنوعی درخواست شد تا خود به شکل داوطلبانه، خطرات احتمالی این فناوری را شناسایی کنند و در جریان کارشان، این خطرات را خنثی کنند.

هنوز کارزار مقابله با توسعه هوش مصنوعی ویرانگر ابعادی جدی در سطح جهانی پیدا نکرده است

یک ماه بعد از انتشار این سند، پارلمان اتحادیه اروپا برای نخستین بار متن پیش‌نویس قانون هوش مصنوعی را تصویب کرد که نخستین قانون جامع نظارت و کنترل این فناوری در جهان توصیف شده است. اما این قانون از سال ۲۰۲۶ اجرا خواهد شد؛ زمانی که به گفته کارشناسان فناوری، مدل‌های هوش مصنوعی دیگر هیچ شباهتی به هوش مصنوعی امروز نخواهند داشت.

سرانجام در میانه تابستان ۲۰۲۳، موضوع هوش مصنوعی به شورای امنیت سازمان ملل کشیده شد. «آنتونیو گوترش»، دبیرکل سازمان ملل به اشکال مختلف حمایتش را از تشکیل یک سازمان بین‌المللی جدید، شبیه به سازمان بین‌المللی انرژی هسته‌ای، برای نظارت بر هوش مصنوعی بیان کرده است.

آقای گوترش در شورای امنیت نیز بار دیگر نگرانی‌هایش را بیان کرد و در نهایت اعضای این شورا بر سر تشکیل یک شورای مشورتی توافق کردند. این شورا در ۲۶ اکتبر (۵ آبان) گزارش اولیه‌اش را منتشر کرد که در آن به کشورهای جهان توصیه شده هر چه سریعتر، به تلاش‌هایی مشترک روی بیاورند. گزارش نهایی این شورا قرار است در تابستان ۲۰۲۴ در «نشست آینده» منتشر شود؛ نشستی که انتظار می‌رفت به شکل قابل ملاحظه‌ای به مسائل محیط‌زیستی اختصاص داشته باشد و حالا این گمانه مطرح است که زیر سایه موضوع خطرات کلیدی هوش مصنوعی قرار بگیرد.

متفکرانی مانند هنری کسینجر معتقدند که بشریت در مواجهه با هوش مصنوعی باید از تاریخ کنترل تسلیحات هسته‌ای درس بگیرد؛ سال‌هایی که ابرقدرت‌های جهان به رغم تفاوت‌های بنیادین و حتی رویکردهای خصمانه نسبت به یکدیگر، در کنار هم پذیرفتند که جلوی گسترش بمب‌های اتمی را بگیرند.

اقدام جامعه بین‌المللی در کنترل تسلیحات هسته‌ای به حدی موفق بود که بعد از ۸۰ سال، در دنیای امروز تنها ۹ کشور به سلاح هسته‌ای دسترسی دارند (امریکا، بریتانیا، فرانسه، چین و روسیه به عنوان اعضای «قانونی» باشگاه کشورهای هسته‌ای، در کنار هند، پاکستان، اسرائیل و کره شمالی، به عنوان اعضای «غیرقانونی» این گروه).

در جلسه شورای امنیت تعدادی از کارشناسان هوش مصنوعی نیز نظراتشان را بیان کردند

با این حال مقایسه این دو پدیده و به ویژه ارجاع به موفقیت‌های سازمان بین‌المللی انرژی هسته‌ای در این زمینه می‌تواند بسیار خوش‌بینانه به نظر برسد. همین حالا کم نیستند منتقدانی که می‌گویند پیمان منع گسترش تسلیحات هسته‌ای به شکل یک‌جانبه و به ضرر کشورهای غیرهسته‌ای اجرا شده و یکی از وعده‌های بزرگ این پیمان مبنی بر خلع سلاح هسته‌ای قدرت‌های بزرگ، هرگز عملی نشده است.

به بیان دیگر، این پیمان در واقع ابزاری بوده در دست قدرت‌های بزرگ تا از دسترسی کشورهای دیگر به تسلیحات هسته‌ای جلوگیری کنند و موقعیت استثنایی و بسیار قدرتمند خود را در عالی‌ترین سطوح سلسله مراتب بین‌المللی تضمین کنند.

علاوه بر این، با در نظر گرفتن تنش‌های ژئوپلتیک موجود در سطح قدرت‌های بزرگ و رقابت شدید و پر از اضطراب چین و امریکا، چگونه می‌توان از این دو کشور خواست تا از توسعه هوش مصنوعی دست بکشند؟

آیا واشنگتن یا پکن، هیچ کدام حاضر می‌شوند که حتی برای دورانی کوتاه و موقت، توسعه این فناوری را به حال تعلیق دربیاورند؟

نه تنها چنین انتظاری از کشورهایی چون امریکا و چین، غیر واقعی به نظر می‌رسد، حتی با فرض تدوین مقررات سخت‌گیرانه بین‌المللی، راه‌اندازی نهادی قدرتمند شبیه به سازمان بین‌المللی انرژی هسته‌ای نیز لزوما کنترل جدی این فناوری را تضمین نخواهد کرد.

کشورهای تجدیدنظرطلب جامعه بین‌المللی مانند جمهوری اسلامی ایران یا کره شمالی، همین حالا نیز تاکید دارند که در ساختار فعلی به آن‌ها ظلم شده و سلسله مراتب قدرت در این ساختار، ناعادلانه است. آیا آن‌ها حاضر خواهند شد که حالا علاوه بر دوربین‌های آژانس بین‌المللی انرژی هسته‌ای، دوربین‌های یک آژانس بین‌المللی جدید را نیز در لابراتوارهای هوش مصنوعی‌شان نصب کنند؟

و حتی با فرض اینکه بازیگران کشوری در جامعه بین‌المللی به مقرراتی محدودکننده تن بدهند، چه تضمینی وجود دارد که گروه‌هایی مانند القاعده و داعش این مقررات را بپذیرند و توسعه هوش مصنوعی را روزی به سطحی که موجودیت بشر را تهدید کند، نرسانند؟

مطالب جدید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *