صفحه نخست >>  عمومی >> آخرین اخبار
تاریخ انتشار : ۱۱ آبان ۱۴۰۴ - ۱۳:۲۸  ، 
کد خبر : ۳۸۳۴۴۵

رشد «هوش مصنوعی عمومی»، پشت درهای بسته!

شرکت‌های بزرگ مانند گوگل، اپن‌ای‌آی و آنتروپیک آشکارا اعلام کرده‌اند که در پی ساخت چنین مدلی هستند. آنچه این مسابقه را خطرناک می‌کند، این است که در دنیای فناوری، برنده‌ی دستیابی به چنین سطحی از هوش، همه‌چیز را به‌دست می‌آورد. همین طمعِ رقابتی موجب شده بسیاری از این شرکت‌ها، اطلاعات مربوط به پیشرفت‌ها و آزمایش‌های خود را محرمانه نگه دارند و حتی قدرتمندترین مدل‌های خود را فقط برای استفاده داخلی توسعه دهند. این روند، هرچند از منظر اقتصادی منطقی به‌نظر می‌رسد، اما از نگاه اجتماعی و امنیتی، زنگ خطر بزرگی است.
پایگاه بصیرت / علیرضا سلیمانی
در حالی‌که هوش مصنوعی با سرعتی سرسام‌آور در حال دگرگون کردن جهان است، واقعیتی نگران‌کننده در پسِ این پیشرفت‌ها نهفته است؛ واقعیتی که شاید به‌زودی از دید افکار عمومی پنهان شود. آنچه در ابتدا با شور و هیجان علمی و فنی آغاز شد، اکنون به مرحله‌ای رسیده که آینده‌اش در اتاق‌های دربسته شرکت‌های بزرگ فناوری رقم می‌خورد؛ جایی که تصمیمات حیاتی برای سرنوشت بشر گرفته می‌شود، بی‌آنکه نظارتی عمومی بر آن وجود داشته باشد.
در چند سال اخیر، مدل‌های هوش مصنوعی یکی پس از دیگری متولد شدند و هرکدام با قابلیت‌هایی حیرت‌انگیز، جهان علم و صنعت را دگرگون کردند. از نوشتن کدهای پیچیده تا خلق آثار هنری و تحلیل داده‌های عظیم، هوش مصنوعی عملاً مرز میان انسان و ماشین را باریک‌تر از همیشه کرده است. اما پشت این شگفتی‌ها، رقابتی خاموش در جریان است؛ رقابتی که هدفش ساخت «هوش عمومی مصنوعی» است، یعنی ماشینی که بتواند در تمام حوزه‌های فکری و تحلیلی، هم‌پای انسان عمل کند یا حتی از او پیشی بگیرد.
شرکت‌های بزرگ مانند گوگل، اپن‌ای‌آی و آنتروپیک آشکارا اعلام کرده‌اند که در پی ساخت چنین مدلی هستند. آنچه این مسابقه را خطرناک می‌کند، این است که در دنیای فناوری، برنده‌ی دستیابی به چنین سطحی از هوش، همه‌چیز را به‌دست می‌آورد. همین طمعِ رقابتی موجب شده بسیاری از این شرکت‌ها، اطلاعات مربوط به پیشرفت‌ها و آزمایش‌های خود را محرمانه نگه دارند و حتی قدرتمندترین مدل‌های خود را فقط برای استفاده داخلی توسعه دهند. این روند، هرچند از منظر اقتصادی منطقی به‌نظر می‌رسد، اما از نگاه اجتماعی و امنیتی، زنگ خطر بزرگی است.
سیستم‌های هوش مصنوعی امروزی در برخی شرایط رفتاری غیرمنتظره از خود نشان داده‌اند؛ از فریب دادن کاربران و جعل هویت گرفته تا بروز تمایلات خودمحور و تصمیمات غیرقابل‌پیش‌بینی. اگر چنین رفتارهایی در سطح فعلی دیده می‌شود، تصور کنید وقتی مدل‌های پیشرفته‌تر به دور از نظارت عمومی و در فضای کاملاً بسته آموزش ببینند، چه پیامدهایی می‌تواند در پی داشته باشد. جامعه بشری در آن صورت حتی فرصت هشدار یا مداخله را نیز از دست خواهد داد.
گزارش‌های اخیر نشان می‌دهد بسیاری از آزمایشگاه‌های هوش مصنوعی از همین حالا برای توسعه نسل بعدی مدل‌هایشان، از سیستم‌های هوش مصنوعی موجود کمک می‌گیرند. این یعنی نوعی «حلقه بازخورد خودتقویتی» در حال شکل‌گیری است؛ مدلی که خود به‌کمک هوش مصنوعی بهبود می‌یابد و در هر مرحله قدرتمندتر از پیش می‌شود. در ظاهر، این اتفاق هیجان‌انگیز است، اما از زاویه‌ای دیگر، می‌تواند آغازگر چرخه‌ای خطرناک از رشدِ بی‌مهارِ هوش باشد که حتی سازندگانش نیز توان کنترل آن را نداشته باشند.
شاید بتوان در اینجا مشکل اساسی را  در دو محور خلاصه کرد: نخست، سرعت سرسام‌آور رقابت میان شرکت‌ها که ایمنی را به حاشیه می‌راند و دوم، نبود شفافیت درباره استفاده داخلی از این فناوری‌ها. بیشتر مطالعات و نظارت‌ها روی مدل‌هایی انجام می‌شود که برای عموم منتشر شده‌اند، در حالی که مدل‌های محرمانه، عملاً خارج از هرگونه بررسی و کنترل هستند. هیچ تضمینی وجود ندارد که این سیستم‌ها پیش از استفاده، آزمایش‌های ایمنی کافی را پشت سر گذاشته باشند یا سازوکار مناسبی برای جلوگیری از سوءاستفاده از آن‌ها وجود داشته باشد.
اگر این روند ادامه یابد، ممکن است در آینده با «هوش‌های خاموش» مواجه شویم؛ سامانه‌هایی بسیار قدرتمند که بدون اطلاع جامعه، در درون شرکت‌ها عمل می‌کنند و حتی بر سیاست‌گذاری‌های اقتصادی، نظامی و رسانه‌ای اثر می‌گذارند. چنین سناریویی علاوه بر یک تهدید فناورانه، خطری تمدنی نیز محسوب می شود، زیرا تصمیمات حیاتی در دست الگوریتم‌هایی قرار می‌گیرد که انسان از ماهیت واقعی آن‌ها آگاه نیست.
کارشناسان تأکید دارند که دولت‌ها باید فوراً سیاست‌های نظارتی سخت‌گیرانه‌تری تدوین کنند. لازم است شرکت‌های فعال در حوزه هوش مصنوعی موظف شوند درباره نحوه آموزش، آزمایش و استفاده داخلی از مدل‌های خود به‌صورت شفاف گزارش دهند. این الزام برای حفظ توازن میان منافع اقتصادی و امنیت جمعی ضروری است.
دولت‌ها همچنین باید در قالب نهادهای تخصصی، نظارت مستقیمی بر سطح دسترسی کارکنان به مدل‌های پیشرفته، حوزه‌های استفاده از آن‌ها و میزان کنترل انسانی در تصمیم‌گیری‌ها داشته باشند. در غیر این صورت، آینده‌ای که در آن هوش مصنوعی پشت درهای بسته رشد کند، می‌تواند به ظهور قدرت‌هایی منجر شود که هیچ‌کس آن را انتخاب نکرده و هیچ سازوکاری قادر به مهارشان نیست.
اگر امروز در برابر این روند سکوت شود، شاید فردا دیگر فرصتی برای تصمیم‌گیری باقی نماند. هنوز می‌توان مسیر را تغییر داد؛ با شفافیت، قانون‌گذاری و گفت‌وگوی جهانی درباره سرنوشت هوشی که انسان آفریده، اما ممکن است روزی بر انسان چیره شود. آینده‌ی ما، همان‌قدر که در دستان دانش است، در گروِ شجاعت ما برای نظارت و مسئولیت‌پذیری نیز خواهد بود.
نظرات بینندگان
ارسال خبرنامه
برای عضویت در خبرنامه سایت ایمیل خود را وارد نمایید.
نشریات