پتانسیل برای هوش مصنوعی مولد بسیار زیاد است، اما از ریسک های هوش مصنوعی مولد نباید غافل شد. خطراتی وجود دارد که باید هنگام تصمیم گیری برای اتخاذ هوش مصنوعی مولد از آن آگاه باشید. رویکردهای موجود به استراتژی فناوری و اصول، شیوه ها و فرآیندهای حاکمیتی گسترده تر ممکن است برای هوش مصنوعی مولد کاملاً مناسب نباشند و ممکن است نیاز به تطبیق و تقویت داشته باشند.
مسائلی که باید در مورد هوش مصنوعی مولد در نظر گرفت عبارتند از:
همانند سایر مدلهای هوش مصنوعی، مدلهای هوش مصنوعی مولد بر روی مجموعه دادهها آموزش داده میشوند و زمانی که این دادهها دارای سوگیری هستند، در خروجی مدل منعکس میشوند. نمونههایی از تولیدکنندههای متن به تصویر دیده شده است، که خروجیهایی تولید میکنند که کلیشههای جنسیتی و نژادی یا چتباتهایی را که سوگیری سیاسی را نشان میدهند، تقویت میکنند. نمونههایی از سوگیری در مدلهای هوش مصنوعی مولد با هدف عمومی (مدلهای پایه) همچنین نشان میدهند که دادههای آموزشی بیشتر لزوماً به معنای تعصب کمتر نیست – حجمهای بزرگتر صرفاً میتوانند سوگیریهای موجود را تقویت کنند.
ناسازگار بودن خروجی یکی از ریسک های هوش مصنوعی مولد است که می تواند بیشتر از سایر خروجی های مبتنی بر هوش مصنوعی اتفاق بیفتد. هنگامی که ورودی یکسان ارائه می شود، خروجی ها به دلیل ماهیت آماری مدل ها می توانند به طور قابل توجهی متفاوت باشند. هنگامی که نیاز به تکیه بر رفتار قابل پیش بینی و تکرارپذیر باشد، می تواند چندین چالش ایجاد کند.
با این حال، با استفاده از مهندسی سریع مناسب (که بعداً بحث خواهد شد)، می توان سطحی از سازگاری پاسخ را اعمال کرد، به عنوان مثال با تحمیل یک ساختار خروجی خاص. با این حال، می تواند خطر دستکاری را برای به دست آوردن پاسخ مطلوب ایجاد کند.
یکی دیگر از ریسک های هوش مصنوعی مولد اینست که می تواند به انتشار اطلاعات نادرست کمک کند. بخشی از این به دلیل پتانسیل مدلها برای «توهم» است، یعنی ایجاد دادههای نادرست و با اطمینان به آن تکیه میکنند. تکرار کنونی مدلهای هوش مصنوعی مولد مبتنی بر متن را میتوان به راحتی هدایت کرد، میتواند نقل قولها و ارجاعات را بسازد، و حتی در صورت به چالش کشیدن با خود تناقض داشته باشد، به این معنی که آنها همیشه منبع قابل اعتمادی از حقیقت نیستند.
یکی از نمونههای بدنام این بود که در آن از هوش مصنوعی مولد برای آماده شدن برای یک پرونده قضایی استفاده شد و نمونههایی از پروندههای تاریخی را پیشنهاد کرد که بعداً مشخص شد که تخیلی هستند. علاوه بر این، انسانها میتوانند مستعد سوگیری اتوماسیون باشند که به موجب آن میتوانند بیش از حد به خروجی فناوری اعتماد کنند بدون اینکه آن را زیر سوال ببرند.
خطر توهم و خروجی نادرست را می توان با تمرین شک و تردید حرفه ای و زیر سوال بردن خروجی هوش مصنوعی مولد، با پرسیدن مکرر همان سوال از ابزار هوش مصنوعی کاهش داد. تغییرپذیری پاسخ در واقع یک مزیت در این سناریو است – به ندرت پیش میآید که مدلها توهمات مشابهی را تکرار کنند، بنابراین تکرار سؤال اثر هموارسازی دارد و به کاربران اجازه میدهد روی روندهای خروجی گستردهتر در چندین تکرار تمرکز کنند.
مدلهای هوش مصنوعی مولد همچنین میتوانند در محیطهای پرسرعتی که دانش بهروز در آنها حیاتی است، با مشکل مواجه شوند، زیرا وزن دادههای آموزشی همواره به سمت اطلاعات قدیمیتر و بالقوه اضافی خواهد بود. این را میتوان با ChatGPT-4 مشاهده کرد، که سازندگان آن اظهار میکنند که عموماً از رویدادهایی که پس از قطع شدن اکثریت قریب به اتفاق دادههایش (سپتامبر 2021) رخ دادهاند، آگاهی ندارد و بنابراین خروجیهای آن منعکس کننده این موضوع هستند.
علاوه بر این، با رایجتر شدن خروجی هوش مصنوعی مولد، احتمالاً بخش بزرگتری از دادههای آموزشی مورد استفاده مدلهای هوش مصنوعی مولد را تشکیل میدهد و چنین سیستمهایی بهتدریج بیشتر و بیشتر از خروجیهای خود را بر ورودیهای خودشان استوار میکنند تا خلاقانههای جدید. محتوای تولید شده توسط انسان در جایی که دادههای آموزشی ناقص هستند، مثلاً از طریق توهم یا سوگیری، خروجی میتواند محدودتر، کمتر قابل اعتمادتر شود و کمتر بازتابی از دنیای واقعی باشد.
از هوش مصنوعی مولد می توان برای ایجاد تصاویر، صدا و ویدئوهای جعلی واقع گرایانه استفاده کرد. این موارد گاهی اوقات به عنوان دیپ فیک شناخته می شوند:
از جمله ریسک های هوش مصنوعی مولد اینست که می تواند احتمال کلاهبرداری و همچنین جرایم اقتصادی و سازمان یافته را افزایش دهد. این می تواند مجرمان سایبری را قادر می سازد تا ایمیل های فیشینگ صحیح تر و قابل باورتر و همچنین محتوای صوتی، تصویری و تصویری قانع کننده تر را تولید کنند. همچنین می تواند برای حسابداران در هنگام تلاش برای اعتبارسنجی اطلاعات ارائه شده توسط کسب و کار، تامین کنندگان یا مشتریان، چالشی ایجاد کند و ممکن است به زودی تهدیدهای مهمی برای فرآیندهای KYC مانند بررسی هویت ایجاد کند.
در ژوئیه 2023، یک ویدیوی کلاهبرداری عمیق از روزنامهنگار مالی بریتانیایی مارتین لوئیس منتشر شد که به واقعگرایی آن شهرت یافت. حسابداران باید کارکنان را آموزش دهند تا از این خطر جدید آگاه باشند و همچنان در زیر سوال بردن صحت ارتباطات، اسناد و مدارک هوشیار باشند.
استفاده از ابزارهای عمومی AI مولد ممکن است حریم خصوصی و الزامات امنیتی داده ها را نقض کند:
یکی دیگر از ریسک های هوش مصنوعی مولد اینست که به عنوان کاربر یک مدل عمومی، کنترل نحوه استفاده از داده هایی که در مدل وارد می کنید و نحوه کنترل دسترسی به آن می تواند دشوار باشد. ممکن است با سازمان های خارج از کشور به اشتراک گذاشته شود و همچنین می تواند برای آموزش مدل ها در آینده مورد استفاده قرار گیرد. بنابراین مهم است که مراقب نوع اطلاعاتی باشید که به ابزاری مانند ربات چت عمومی ارائه میدهید و از وارد کردن هرگونه اطلاعات محرمانه یا شخصی خودداری کنید.
مدلهای پایه هوش مصنوعی از مقدار زیادی داده استفاده میکنند که برخی از آنها ممکن است تحت حفاظت مالکیت معنوی (IP) باشند. محتوای جدید تولید شده توسط هوش مصنوعی می تواند قوانین IP را نقض کند و این ممکن است همیشه برای کاربر قابل مشاهده نباشد. این خطر که یکی از مهمترین ریسک های هوش مصنوعی مولد است را می توان تا حد زیادی با استفاده از داده های تولید شده و متعلق به داخل برای آموزش مدل ها کاهش داد. اگرچه این می تواند سوگیری ایجاد کند و یادگیری، دامنه و کاربرد مدل را محدود کند.
مسئله چگونگی تعیین مسئولیت و مسئولیتپذیری زمانی که یک مدل هوش مصنوعی مولد اشتباه می کند، میتواند یک چالش واقعی باشد، بهویژه وقتی صحبت از مدلهای بنیادی مانند LLM میشود.
اگرچه مدلهای زبان بزرگ (LLM) زیربنای مدلهای هوش مصنوعی تولیدی در ابتدا مستقیماً از طریق رابطها قابل دسترسی بودند، اما روند رو به رشدی وجود دارد که توسعهدهندگان مدلها مدل رابطهای برنامهنویسی کاربردی (API) را منتشر میکنند تا توسعهدهندگان دیگر بتوانند این مدلها را ادغام کنند به محصولات خود.
اگر از مدلی استفاده میکنید که از API استفاده میکند، مهم است که توجه داشته باشید که LLM پشت API میتواند به دلیل آموزش یا تغییر در الگوریتمهای اساسی ایجاد شده توسط شخص ثالث تغییر کند. این می تواند درخواست های موجود را شکسته و خدمات مبتنی بر هوش مصنوعی را مختل کند. پس ریسک های هوش مصنوعی مولد همیشه فقط به شما آسیب نمی رسانند. گاهی اوقات خود ai هم متحمل اختلال در عملکرد خواهد بود.
تکنیکهایی مانند بررسی دادههای آموزشی، مهندسی سریع مؤثر، در نظر گرفتن اصول اخلاقی، تمرین شکگرایی حرفهای و قضاوت انتقادی همگی میتوانند به کاهش خطرات کمک کنند.
از آنجایی که مدلها و قابلیتهای مولد هوش مصنوعی راه خود را به طیف فزایندهای از محصولات و خدمات پیدا میکنند، سازمانها ممکن است نیاز به مدیریت برنامههای تغییر مهم داشته باشند. استراتژی های فناوری و داده ممکن است نیاز به تکامل داشته باشند. رژیمهای حاکمیتی، سیاستها و کنترلها اگر بخواهند به اندازه کافی قوی برای ارزیابی و مدیریت ریسکهای احتمالی باقی بمانند، به ارزیابی منظم نیاز دارند.
اگرچه هوش مصنوعی مولد چالشهای خاصی را ارائه میکند، اما برخی از ریسکها مشابه ریسکهایی هستند که توسط انواع دیگر هوش مصنوعی و استانداردهایی مانند ISO/IEC 23894 ارائه میشود – یک استاندارد جدید برای مدیریت ریسک هوش مصنوعی میتواند به ارائه راهنمایی در مورد چگونگی کاهش چنین خطراتی کمک کند.
برای مطالعه مقالات مربوط به هوش مصنوعی، به لینک زیر مراجعه کنید:
لینکهای مفید: