کد خبر: ۲۱۰۹۶۴
۰۹ فروردين ۱۴۰۴ - ۲۳:۰۰

انسان‌ها می‌توانند هوش مصنوعی را مهار کنند؟/ آینده‌ای که بشر از آن می‌ترسد!

هوش مصنوعی در حوزه‌های مختلف پیشرفت کرده، اما نگرانی‌ها درباره استفاده نظامی و تهدیدهای احتمالی آن همچنان مطرح است. آیا این فناوری می‌تواند در آینده تهدیدی واقعی برای بشر باشد؟
انسان‌ها می‌توانند هوش مصنوعی را مهار کنند؟/ آینده‌ای که بشر از آن می‌ترسد!

به گزارش نبض بازار هوش مصنوعی پدیده جدیدی نیست، اما رشد شگفت‌انگیز آن در سال‌های اخیر باعث شده تا در مرکز توجه جهانی قرار گیرد. این فناوری می‌تواند تحولی بزرگ در اقتصاد، سیاست و اجتماع ایجاد کند. برخی کارشناسان معتقدند که این انقلاب همین حالا آغاز شده و بسیاری از بخش‌های اقتصادی و اجتماعی مانند بهداشت، حمل‌ونقل و آموزش از هوش مصنوعی بهره می‌برند.

رشد بی‌سابقه و آینده هوش مصنوعی

توسعه هوش مصنوعی با سرعتی حیرت‌انگیز ادامه دارد. در سال ۲۰۱۸، مدل GPT-1 تنها ۱۱۰ میلیون پارامتر داشت، اما در سال ۲۰۲۳، مدل GPT-4 از یک تریلیون پارامتر فراتر رفت. پیش‌بینی می‌شود که تا پنج سال آینده، این فناوری به ۱۰۰ تریلیون پارامتر برسد و به سطحی از پیچیدگی نزدیک به مغز انسان دست یابد.

فرصت‌ها و تهدیدهای هوش مصنوعی

همان‌طور که هوش مصنوعی می‌تواند دستاوردهای بزرگی مانند کشف درمان بیماری‌های لاعلاج را به همراه داشته باشد، تهدیداتی جدی نیز ایجاد می‌کند. امکان استفاده از این فناوری برای تولید ویروس‌های مرگبار، تسلیحات جنگی پیشرفته و حملات سایبری پیچیده، نگرانی‌های بسیاری را برانگیخته است. قدرت‌های جهانی، به‌ویژه آمریکا و چین، در رقابت برای توسعه هوش مصنوعی هستند و معتقدند که پیشگامی در این حوزه می‌تواند تعیین‌کننده نظم آینده جهان باشد.

هوش مصنوعی و تغییر موازنه جهانی قدرت

برخی متفکران، از جمله هنری کسینجر، هوش مصنوعی را با بمب اتم مقایسه می‌کنند و معتقدند که این فناوری می‌تواند نظم بین‌المللی را دگرگون کند. در حالی که کشورهای غربی و چین از دیگر کشورها در توسعه این فناوری جلوتر هستند، احتمال دارد که با پیشرفت سریع محاسباتی، کشورهای در حال توسعه نیز در آینده به مدل‌های پیشرفته دسترسی پیدا کنند. در عین حال، شرکت‌های خصوصی نقش پررنگی در کنترل این فناوری دارند و به بازیگرانی تأثیرگذار در سیاست بین‌المللی تبدیل شده‌اند.

تلاش‌های جهانی برای کنترل هوش مصنوعی

در حال حاضر، هیچ مقررات بین‌المللی برای نظارت بر توسعه هوش مصنوعی وجود ندارد. در سال ۲۰۲۳، کشورهای گروه هفت سند «روند هیروشیما» را برای توسعه امن هوش مصنوعی منتشر کردند و اتحادیه اروپا اولین پیش‌نویس قانون هوش مصنوعی را تصویب کرد. شورای امنیت سازمان ملل نیز در میانه سال ۲۰۲۳ به این موضوع پرداخت و پیشنهاد تشکیل یک نهاد نظارتی مشابه آژانس بین‌المللی انرژی اتمی را مطرح کرد.

آیا نظارت جهانی بر هوش مصنوعی ممکن است؟

کنترل هوش مصنوعی با الگوبرداری از محدودیت‌های تسلیحات هسته‌ای، اگرچه منطقی به نظر می‌رسد، اما چالش‌های فراوانی دارد. محدودیت‌های هسته‌ای تنها برای ۹ کشور اعمال شد، اما در مورد هوش مصنوعی، دسترسی گسترده‌تری وجود دارد. علاوه بر این، رقابت شدید آمریکا و چین، احتمال توافق بر سر محدودیت‌های توسعه را کاهش می‌دهد. همچنین، کشورهای معترض به نظم جهانی، مانند ایران و کره شمالی، به سختی چنین محدودیت‌هایی را خواهند پذیرفت.

در نهایت، حتی اگر کشورها نظارت بر هوش مصنوعی را بپذیرند، تهدید گروه‌های تروریستی و غیردولتی همچنان باقی خواهد ماند. به همین دلیل، آینده هوش مصنوعی نه‌تنها بستگی به پیشرفت فناوری، بلکه به نحوه مدیریت و کنترل آن توسط جامعه جهانی دارد.

اخبار پیشنهادی