شرکتهای بزرگ مانند گوگل، اپنایآی و آنتروپیک آشکارا اعلام کردهاند که در پی ساخت چنین مدلی هستند. آنچه این مسابقه را خطرناک میکند، این است که در دنیای فناوری، برندهی دستیابی به چنین سطحی از هوش، همهچیز را بهدست میآورد. همین طمعِ رقابتی موجب شده بسیاری از این شرکتها، اطلاعات مربوط به پیشرفتها و آزمایشهای خود را محرمانه نگه دارند و حتی قدرتمندترین مدلهای خود را فقط برای استفاده داخلی توسعه دهند. این روند، هرچند از منظر اقتصادی منطقی بهنظر میرسد، اما از نگاه اجتماعی و امنیتی، زنگ خطر بزرگی است.
در حالیکه هوش مصنوعی با سرعتی سرسامآور در حال دگرگون کردن جهان است، واقعیتی نگرانکننده در پسِ این پیشرفتها نهفته است؛ واقعیتی که شاید بهزودی از دید افکار عمومی پنهان شود. آنچه در ابتدا با شور و هیجان علمی و فنی آغاز شد، اکنون به مرحلهای رسیده که آیندهاش در اتاقهای دربسته شرکتهای بزرگ فناوری رقم میخورد؛ جایی که تصمیمات حیاتی برای سرنوشت بشر گرفته میشود، بیآنکه نظارتی عمومی بر آن وجود داشته باشد.
در چند سال اخیر، مدلهای هوش مصنوعی یکی پس از دیگری متولد شدند و هرکدام با قابلیتهایی حیرتانگیز، جهان علم و صنعت را دگرگون کردند. از نوشتن کدهای پیچیده تا خلق آثار هنری و تحلیل دادههای عظیم، هوش مصنوعی عملاً مرز میان انسان و ماشین را باریکتر از همیشه کرده است. اما پشت این شگفتیها، رقابتی خاموش در جریان است؛ رقابتی که هدفش ساخت «هوش عمومی مصنوعی» است، یعنی ماشینی که بتواند در تمام حوزههای فکری و تحلیلی، همپای انسان عمل کند یا حتی از او پیشی بگیرد.
شرکتهای بزرگ مانند گوگل، اپنایآی و آنتروپیک آشکارا اعلام کردهاند که در پی ساخت چنین مدلی هستند. آنچه این مسابقه را خطرناک میکند، این است که در دنیای فناوری، برندهی دستیابی به چنین سطحی از هوش، همهچیز را بهدست میآورد. همین طمعِ رقابتی موجب شده بسیاری از این شرکتها، اطلاعات مربوط به پیشرفتها و آزمایشهای خود را محرمانه نگه دارند و حتی قدرتمندترین مدلهای خود را فقط برای استفاده داخلی توسعه دهند. این روند، هرچند از منظر اقتصادی منطقی بهنظر میرسد، اما از نگاه اجتماعی و امنیتی، زنگ خطر بزرگی است.
سیستمهای هوش مصنوعی امروزی در برخی شرایط رفتاری غیرمنتظره از خود نشان دادهاند؛ از فریب دادن کاربران و جعل هویت گرفته تا بروز تمایلات خودمحور و تصمیمات غیرقابلپیشبینی. اگر چنین رفتارهایی در سطح فعلی دیده میشود، تصور کنید وقتی مدلهای پیشرفتهتر به دور از نظارت عمومی و در فضای کاملاً بسته آموزش ببینند، چه پیامدهایی میتواند در پی داشته باشد. جامعه بشری در آن صورت حتی فرصت هشدار یا مداخله را نیز از دست خواهد داد.
گزارشهای اخیر نشان میدهد بسیاری از آزمایشگاههای هوش مصنوعی از همین حالا برای توسعه نسل بعدی مدلهایشان، از سیستمهای هوش مصنوعی موجود کمک میگیرند. این یعنی نوعی «حلقه بازخورد خودتقویتی» در حال شکلگیری است؛ مدلی که خود بهکمک هوش مصنوعی بهبود مییابد و در هر مرحله قدرتمندتر از پیش میشود. در ظاهر، این اتفاق هیجانانگیز است، اما از زاویهای دیگر، میتواند آغازگر چرخهای خطرناک از رشدِ بیمهارِ هوش باشد که حتی سازندگانش نیز توان کنترل آن را نداشته باشند.
شاید بتوان در اینجا مشکل اساسی را در دو محور خلاصه کرد: نخست، سرعت سرسامآور رقابت میان شرکتها که ایمنی را به حاشیه میراند و دوم، نبود شفافیت درباره استفاده داخلی از این فناوریها. بیشتر مطالعات و نظارتها روی مدلهایی انجام میشود که برای عموم منتشر شدهاند، در حالی که مدلهای محرمانه، عملاً خارج از هرگونه بررسی و کنترل هستند. هیچ تضمینی وجود ندارد که این سیستمها پیش از استفاده، آزمایشهای ایمنی کافی را پشت سر گذاشته باشند یا سازوکار مناسبی برای جلوگیری از سوءاستفاده از آنها وجود داشته باشد.
اگر این روند ادامه یابد، ممکن است در آینده با «هوشهای خاموش» مواجه شویم؛ سامانههایی بسیار قدرتمند که بدون اطلاع جامعه، در درون شرکتها عمل میکنند و حتی بر سیاستگذاریهای اقتصادی، نظامی و رسانهای اثر میگذارند. چنین سناریویی علاوه بر یک تهدید فناورانه، خطری تمدنی نیز محسوب می شود، زیرا تصمیمات حیاتی در دست الگوریتمهایی قرار میگیرد که انسان از ماهیت واقعی آنها آگاه نیست.
کارشناسان تأکید دارند که دولتها باید فوراً سیاستهای نظارتی سختگیرانهتری تدوین کنند. لازم است شرکتهای فعال در حوزه هوش مصنوعی موظف شوند درباره نحوه آموزش، آزمایش و استفاده داخلی از مدلهای خود بهصورت شفاف گزارش دهند. این الزام برای حفظ توازن میان منافع اقتصادی و امنیت جمعی ضروری است.
دولتها همچنین باید در قالب نهادهای تخصصی، نظارت مستقیمی بر سطح دسترسی کارکنان به مدلهای پیشرفته، حوزههای استفاده از آنها و میزان کنترل انسانی در تصمیمگیریها داشته باشند. در غیر این صورت، آیندهای که در آن هوش مصنوعی پشت درهای بسته رشد کند، میتواند به ظهور قدرتهایی منجر شود که هیچکس آن را انتخاب نکرده و هیچ سازوکاری قادر به مهارشان نیست.
اگر امروز در برابر این روند سکوت شود، شاید فردا دیگر فرصتی برای تصمیمگیری باقی نماند. هنوز میتوان مسیر را تغییر داد؛ با شفافیت، قانونگذاری و گفتوگوی جهانی درباره سرنوشت هوشی که انسان آفریده، اما ممکن است روزی بر انسان چیره شود. آیندهی ما، همانقدر که در دستان دانش است، در گروِ شجاعت ما برای نظارت و مسئولیتپذیری نیز خواهد بود.