محدودیت‌ها و ریسک های هوش مصنوعی مولد

پتانسیل برای هوش مصنوعی مولد بسیار زیاد است، اما از ریسک های هوش مصنوعی مولد نباید غافل شد. خطراتی وجود دارد که  باید هنگام تصمیم گیری برای اتخاذ هوش مصنوعی مولد از آن آگاه باشید. رویکردهای موجود به استراتژی فناوری و اصول، شیوه ها و فرآیندهای حاکمیتی گسترده تر ممکن است برای هوش مصنوعی مولد کاملاً مناسب نباشند و ممکن است نیاز به تطبیق و تقویت داشته باشند.

خطرات بالقوه و ریسک های هوش مصنوعی مولد

مسائلی که باید در مورد هوش مصنوعی مولد در نظر گرفت عبارتند از:

خروجی هوش مصنوعی مولد می تواند بایاس باشد:

همانند سایر مدل‌های هوش مصنوعی، مدل‌های هوش مصنوعی مولد بر روی مجموعه داده‌ها آموزش داده می‌شوند و زمانی که این داده‌ها دارای سوگیری هستند، در خروجی مدل منعکس می‌شوند. نمونه‌هایی از تولیدکننده‌های متن به تصویر دیده شده است، که خروجی‌هایی تولید می‌کنند که کلیشه‌های جنسیتی و نژادی یا چت‌بات‌هایی را که سوگیری سیاسی را نشان می‌دهند، تقویت می‌کنند. نمونه‌هایی از سوگیری در مدل‌های هوش مصنوعی مولد با هدف عمومی (مدل‌های پایه) همچنین نشان می‌دهند که داده‌های آموزشی بیشتر لزوماً به معنای تعصب کمتر نیست – حجم‌های بزرگ‌تر صرفاً می‌توانند سوگیری‌های موجود را تقویت کنند.

خروجی هوش مصنوعی مولد می تواند ناسازگار باشد:

ناسازگار بودن خروجی یکی از ریسک های هوش مصنوعی مولد است که می تواند بیشتر از سایر خروجی های مبتنی بر هوش مصنوعی اتفاق بیفتد. هنگامی که ورودی یکسان ارائه می شود، خروجی ها به دلیل ماهیت آماری مدل ها می توانند به طور قابل توجهی متفاوت باشند. هنگامی که نیاز به تکیه بر رفتار قابل پیش بینی و تکرارپذیر باشد، می تواند چندین چالش ایجاد کند.

با این حال، با استفاده از مهندسی سریع مناسب (که بعداً بحث خواهد شد)، می توان سطحی از سازگاری پاسخ را اعمال کرد، به عنوان مثال با تحمیل یک ساختار خروجی خاص. با این حال، می تواند خطر دستکاری را برای به دست آوردن پاسخ مطلوب ایجاد کند.

خروجی هوش مصنوعی مولد می تواند نادرست باشد:

یکی دیگر از ریسک های هوش مصنوعی مولد اینست که می تواند به انتشار اطلاعات نادرست کمک کند. بخشی از این به دلیل پتانسیل مدل‌ها برای «توهم» است، یعنی ایجاد داده‌های نادرست و با اطمینان به آن تکیه می‌کنند. تکرار کنونی مدل‌های هوش مصنوعی مولد مبتنی بر متن را می‌توان به راحتی هدایت کرد، می‌تواند نقل قول‌ها و ارجاعات را بسازد، و حتی در صورت به چالش کشیدن با خود تناقض داشته باشد، به این معنی که آنها همیشه منبع قابل اعتمادی از حقیقت نیستند.

یکی از نمونه‌های بدنام این بود که در آن از هوش مصنوعی مولد برای آماده شدن برای یک پرونده قضایی استفاده شد و نمونه‌هایی از پرونده‌های تاریخی را پیشنهاد کرد که بعداً مشخص شد که تخیلی هستند. علاوه بر این، انسان‌ها می‌توانند مستعد سوگیری اتوماسیون باشند که به موجب آن می‌توانند بیش از حد به خروجی فناوری اعتماد کنند بدون اینکه آن را زیر سوال ببرند.

خطر توهم و خروجی نادرست را می توان با تمرین شک و تردید حرفه ای و زیر سوال بردن خروجی هوش مصنوعی مولد، با پرسیدن مکرر همان سوال از ابزار هوش مصنوعی کاهش داد. تغییرپذیری پاسخ در واقع یک مزیت در این سناریو است – به ندرت پیش می‌آید که مدل‌ها توهمات مشابهی را تکرار کنند، بنابراین تکرار سؤال اثر هموارسازی دارد و به کاربران اجازه می‌دهد روی روندهای خروجی گسترده‌تر در چندین تکرار تمرکز کنند.

خروجی هوش مصنوعی مولد ممکن است منعکس کننده دنیای واقعی نباشد:

مدل‌های هوش مصنوعی مولد همچنین می‌توانند در محیط‌های پرسرعتی که دانش به‌روز در آن‌ها حیاتی است، با مشکل مواجه شوند، زیرا وزن داده‌های آموزشی همواره به سمت اطلاعات قدیمی‌تر و بالقوه اضافی خواهد بود. این را می‌توان با ChatGPT-4 مشاهده کرد، که سازندگان آن اظهار می‌کنند که عموماً از رویدادهایی که پس از قطع شدن اکثریت قریب به اتفاق داده‌هایش (سپتامبر 2021) رخ داده‌اند، آگاهی ندارد و بنابراین خروجی‌های آن منعکس کننده این موضوع هستند.

علاوه بر این، با رایج‌تر شدن خروجی هوش مصنوعی مولد، احتمالاً بخش بزرگ‌تری از داده‌های آموزشی مورد استفاده مدل‌های هوش مصنوعی مولد را تشکیل می‌دهد و چنین سیستم‌هایی به‌تدریج بیشتر و بیشتر از خروجی‌های خود را بر ورودی‌های خودشان استوار می‌کنند تا خلاقانه‌های جدید. محتوای تولید شده توسط انسان در جایی که داده‌های آموزشی ناقص هستند، مثلاً از طریق توهم یا سوگیری، خروجی می‌تواند محدودتر، کمتر قابل اعتمادتر شود و کمتر بازتابی از دنیای واقعی باشد.

از هوش مصنوعی مولد می توان برای ایجاد تصاویر، صدا و ویدئوهای جعلی واقع گرایانه استفاده کرد. این موارد گاهی اوقات به عنوان دیپ فیک شناخته می شوند:

از جمله ریسک های هوش مصنوعی مولد اینست که می تواند احتمال کلاهبرداری و همچنین جرایم اقتصادی و سازمان یافته را افزایش دهد. این می تواند مجرمان سایبری را قادر می سازد تا ایمیل های فیشینگ صحیح تر و قابل باورتر و همچنین محتوای صوتی، تصویری و تصویری قانع کننده تر را تولید کنند.  همچنین می تواند برای حسابداران در هنگام تلاش برای اعتبارسنجی اطلاعات ارائه شده توسط کسب و کار، تامین کنندگان یا مشتریان، چالشی ایجاد کند و ممکن است به زودی تهدیدهای مهمی برای فرآیندهای KYC مانند بررسی هویت ایجاد کند.

در ژوئیه 2023، یک ویدیوی کلاهبرداری عمیق از روزنامه‌نگار مالی بریتانیایی مارتین لوئیس منتشر شد که به واقع‌گرایی آن شهرت یافت. حسابداران باید کارکنان را آموزش دهند تا از این خطر جدید آگاه باشند و همچنان در زیر سوال بردن صحت ارتباطات، اسناد و مدارک هوشیار باشند.

استفاده از ابزارهای عمومی AI مولد ممکن است حریم خصوصی و الزامات امنیتی داده ها را نقض کند:

یکی دیگر از ریسک های هوش مصنوعی مولد اینست که به عنوان کاربر یک مدل عمومی، کنترل نحوه استفاده از داده هایی که در مدل وارد می کنید و نحوه کنترل دسترسی به آن می تواند دشوار باشد. ممکن است با سازمان های خارج از کشور به اشتراک گذاشته شود و همچنین می تواند برای آموزش مدل ها در آینده مورد استفاده قرار گیرد. بنابراین مهم است که مراقب نوع اطلاعاتی باشید که به ابزاری مانند ربات چت عمومی ارائه می‌دهید و از وارد کردن هرگونه اطلاعات محرمانه یا شخصی خودداری کنید.

استفاده از ابزارهای مولد هوش مصنوعی ممکن است الزامات حق چاپ و مالکیت معنوی را نقض کند:

مدل‌های پایه هوش مصنوعی از مقدار زیادی داده استفاده می‌کنند که برخی از آنها ممکن است تحت حفاظت مالکیت معنوی (IP) باشند. محتوای جدید تولید شده توسط هوش مصنوعی می تواند قوانین IP را نقض کند و این ممکن است همیشه برای کاربر قابل مشاهده نباشد. این خطر که یکی از مهمترین ریسک های هوش مصنوعی مولد است را می توان تا حد زیادی با استفاده از داده های تولید شده و متعلق به داخل برای آموزش مدل ها کاهش داد. اگرچه این می تواند سوگیری ایجاد کند و یادگیری، دامنه و کاربرد مدل را محدود کند.

تعیین مسئولیت و پاسخگویی می تواند دشوار باشد:

مسئله چگونگی تعیین مسئولیت و مسئولیت‌پذیری زمانی که یک مدل هوش مصنوعی مولد اشتباه می کند، می‌تواند یک چالش واقعی باشد، به‌ویژه وقتی صحبت از مدل‌های بنیادی مانند LLM می‌شود.

ابزارهای مولد هوش مصنوعی ممکن است همیشه آنطور که در نظر گرفته شده کار نکنند:

اگرچه مدل‌های زبان بزرگ (LLM) زیربنای مدل‌های هوش مصنوعی تولیدی در ابتدا مستقیماً از طریق رابط‌ها قابل دسترسی بودند، اما روند رو به رشدی وجود دارد که توسعه‌دهندگان مدل‌ها مدل رابط‌های برنامه‌نویسی کاربردی (API) را منتشر می‌کنند تا توسعه‌دهندگان دیگر بتوانند این مدل‌ها را ادغام کنند به محصولات خود.

اگر از مدلی استفاده می‌کنید که از API استفاده می‌کند، مهم است که توجه داشته باشید که LLM پشت API می‌تواند به دلیل آموزش یا تغییر در الگوریتم‌های اساسی ایجاد شده توسط شخص ثالث تغییر کند. این می تواند درخواست های موجود را شکسته و خدمات مبتنی بر هوش مصنوعی را مختل کند. پس ریسک های هوش مصنوعی مولد همیشه فقط به شما آسیب نمی رسانند. گاهی اوقات خود ai هم متحمل اختلال در عملکرد خواهد بود.

چگونه خطرات را کاهش دهیم

تکنیک‌هایی مانند بررسی داده‌های آموزشی، مهندسی سریع مؤثر، در نظر گرفتن اصول اخلاقی، تمرین شک‌گرایی حرفه‌ای و قضاوت انتقادی همگی می‌توانند به کاهش خطرات کمک کنند.

از آنجایی که مدل‌ها و قابلیت‌های مولد هوش مصنوعی راه خود را به طیف فزاینده‌ای از محصولات و خدمات پیدا می‌کنند، سازمان‌ها ممکن است نیاز به مدیریت برنامه‌های تغییر مهم داشته باشند. استراتژی های فناوری و داده ممکن است نیاز به تکامل داشته باشند. رژیم‌های حاکمیتی، سیاست‌ها و کنترل‌ها اگر بخواهند به اندازه کافی قوی برای ارزیابی و مدیریت ریسک‌های احتمالی باقی بمانند، به ارزیابی منظم نیاز دارند.

اگرچه هوش مصنوعی مولد چالش‌های خاصی را ارائه می‌کند، اما برخی از ریسک‌ها مشابه ریسک‌هایی هستند که توسط انواع دیگر هوش مصنوعی و استانداردهایی مانند ISO/IEC 23894 ارائه می‌شود – یک استاندارد جدید برای مدیریت ریسک هوش مصنوعی می‌تواند به ارائه راهنمایی در مورد چگونگی کاهش چنین خطراتی کمک کند.

برای مطالعه مقالات مربوط به هوش مصنوعی، به لینک زیر مراجعه کنید:

هوش مصنوعی

لینکهای مفید:

گروه خودروسازی سایپا

مطالب مرتبط

fasa logo 3 - Footer Dark 02 - 1

فسا با انجام پروژه های متعدد و ارائه راه حل های مورد اعتماد در حوزه های صنعتی، بیمه ای، خدمات ارزش افزوده، حمل و نقل هوشمند و مراکز داده، امنیت و تجهیز ساختمان ها تبدیل به یکی از فعالترین شرکت های مطرح در فناوری اطلاعات و ارتباطات در سطح مطلوب فناوری و تکنولوژی روز شده است.

 



اطلاعات تماس



 آدرس: تهران – بلوار میرداماد – خیابان کازرون – خیابان نیکنام – پلاک ۱۰


 ایمیل: info@fasatech.com

 تلفن: 5 -26424001-021



خدمات

• تولید و توسعه نرم‌افزار(IS)

• شبکه و زیرساخت(IT)

• برنامه‌ریزی منابع انسانی(EPR)

• امنیت اطلاعات و ارتباطات

• تامین تجهیزات و سخت‌افزار

• تامین منابع انسانی متخصص



لینک‌های مرتبط

car - Footer Dark 02 - 3
bike - Footer Dark 02 - 4