به تازگی، «شیه فنگ»، سفیر چین در ایالات متحده درباره خطرات عدم همکاری دو کشور در حوزه هوش مصنوعی (AI) هشدار داده است. وی عواقب ناشی از این مسئله را به باز شدن “جعبه پاندورا” تشبیه کرده است.
شاید برای شما این سوال ایجاد شود که ارتباط میان هوش مصنوعی چت جی پی تی و جعبه پاندورا چیست؟!
برای پاسخ به این پرسش در ادامه این مطلب با ما همراه باشید.
جعبه پاندورا چیست؟
پیش از هر چیز، اجازه دهید تا مفهوم جعبه پاندورا را شرح دهیم.
بنابر افسانههای یونان باستان، جعبه پاندورا یا کوزه پاندورا، حاوی و منشا تمامی بدیها، بلایا و مشکلات بشر است. بنابراین اگر این جعبه باز گردد، جامعه انسان درگیر بلایای فراوان میگردد.
ارتباط چت جی پی تی و جعبه پاندورا
از همان ابتدای جرقه شکلگیری هوش مصنوعی در ذهن بشر در دهههای گذشته، همواره این نگرانی وجود داشت که ممکن است روزی کنترل این فناوری از دست بشر خارج شده و بتواند به شکلی غیرقابل کنترل پیشرفت کرده و بر زندگی انسانها تأثیر بگذارد.
از انجایی که شاید AI به خودی خود درکی نسبت به احساسات، خواستهها و آسایش بشریت نداشته باشد، بنابراین این مسئله میتواند پیامدهای نامطلوبی برای انسانها به وجود آورد.
به همین دلیل سفیر چین این پیامد نامطلوب را به باز شدن جعبه پاندورا تشبیه کرده است.
ضرورت نظارت جهانی برای جلوگیری از تهدیدات آینده
پیشرفت مدلهای سطح بالا مانند چت جی پی تی، بدون وجود نظارت انسانی میتواند پیامدهای منفی گستردهای بر روی اقتصاد، امنیت و نظم و ثبات جهانی داشته باشد. این نظارت نیازمند همکاری بین المللی و تدوین قوانین مشترک است.
با توجه به افزایش سرعت رشد این فناوری و کاهش هزینه آموزش مدلها، احتمال ظهور مدلهای قدرتمندی که توسط گروهی از افراد، با اهداف نامطلوب توسعه یافته باشند، افزایش مییابد. بنابراین پیشگیری از چنین تهدیداتی نیازمند نظارت دقیق دولتها بر آن است.
آیا اکنون باید نگران پیامدهای هوش مصنوعی باشیم؟
در حالی که AI با سرعت در حال پیشرفت است، نگرانیهای مطرح شده توسط متخصصین این زمینه قابل درک است. هرچند هنوز با هوش مصنوعی عمومی که سطح توانایی فوقالعادهای دارد، فاصله داریم، اما نگرانیهایی در زمینه امنیت اطلاعات و استفادههای مخرب همین حالا نیز وجود دارد.
سؤال مهم این است که آیا جامعه جهانی هماکنون آمادگی لازم برای کنترل این چالشها را دارد؟
با توجه به نقش روز افزون هوش مصنوعی در زندگی انسانها، اگر این فناوری بدون نظارت مناسب رها شود، میتواند پیامدهای منفی جدی نظیر آسیبهای اقتصادی، از بین رفتن مشاغل، نقض حریم خصوصی و … داشته باشد.
نظارت بر هوش مصنوعی چگونه میتواند از خطرات احتمالی جلوگیری کند؟
نظارت مناسب بر این فناوری، نقش اساسی برای کنترل چالشهای احتمالی آن دارد. بدون کنترل و قوانین اصولی، هوش مصنوعی میتواند به ابزاری نامناسب تبدیل شده که نقش منفی آن در زندگی انسانها پررنگ تر از مزایای آن گردد. برای پیشگیری از چنین مواردی، دولتها و نهادهای بین المللی نیازمند به قوانین یکپارچهای هستند، تا بر اساس آن با یکدیگر به همکاری در این زمینه بپردازند.
چند راهکار نظارتی موثر
- یکی از شیوههای نظارت، شفافیت در نحوه عملکرد آنها است. در حال حاضر، نحوه عملکرد بسیاری از مدلهای رایج AI مشخص نیست. این موضوع میتواند باعث ایجاد سوگیری ناخواسته و قضاوتهای ناعادلانه شود. الزام شرکتهای توسعه دهنده هوش مصنوعی برای ارائه شفافیت در نحوه عملکرد، آموزش و منابع دادههای استفاده شده میتواند از این مورد جلوگیری کند.
- علاوه بر این، وجود سیستم نظارت انسانی دقیق بر فرایند پاسخدهی مدلهای زبانی مانند چت جی پی تی و سایر مدلها و آموزش شیوه استفاده از آن ضروری است. در حال حاضر مدلهای توسعه یافته، قادر به درک دقیق مفاهیم پیچیده مانند اخلاق، احساسات و شرایط خاص نیستند. بنابراین وجود نظارت انسانی و آموزش شیوه استفاده از این فناوری، میتواند مفید واقع شود.
- در کنار این اقدامات، وجود ساختارهای امنیتی پیشرفته، برای جلوگیری از حملات سایبری و دستکاری دادهها الزامی است.
جمع بندی
مدلهای هوش مصنوعی مانند چت جی پی تی به سرعت در حال پیشرفت هستند. به نظر متخصصین، با وجود اینکه با هوش مصنوعی عمومی که بدون نیاز به آموزش مستقیم میتواند عملکرد داشته باشد فاصله داریم، مدلهای فعلی نیز نیازمند نظارت اصولی برای پیشگیری از آسیبهای احتمالی هستند. وجود قوانین مورد تایید و همکاری کشورها برای اجرای این قوانین ضروری است.
افزون بر آن، آموزش اصولی شیوه استفاده از هوش مصنوعی در کنار نظارت میتواند به کاهش چالشهای این فناوری کمک نماید. این موارد در کنار پیشگیری از مشکلات آتی، میتواند به گسترش و توسعه آن نیز کمک کند.