هوش مصنوعی

آیا پژوهشگران می‌توانند الگوریتم‌هایی برای هوش مصنوعی بسازند که با معیارهای اخلاقی امروزی و نیز امنیت انسان‌ها سازگار باشند؟

خیلی زود بعد از آنکه «آلن تورینگ» مطالعه علم کامپیوتر را در سال ۱۹۳۶ آغاز کرد، این موضوع ذهنش را درگیر کرد که بشریت روزی می‌تواند ماشین‌هایی با هوش قابل قیاس با انسان بسازد یا خیر. هوش مصنوعی، حوزه‌ای مدرن که با این پرسش دست به گریبان است، از آن زمان راه درازی را پیموده؛ اما ما با اختراع ماشین‌های واقعاً هوشمند که بتوانند به‌طور مستقل وظایف متفاوت بسیاری را انجام دهند، بسیار فاصله داریم.

اگرچه در ادبیات علمی-تخیلی مدت‌هاست تصور می‌شود که هوش مصنوعی (AI) روزی گونه‌هایی بدطینت به‌خود می‌گیرد (مانند اندرویدهای بی‌اخلاق یا ترمیناتورهای قاتل)، پژوهشگران امروزی هوش مصنوعی بیشتر نگران الگوریتم‌های روزمره AI هستند که درحال‌حاضر با زندگی ما درآمیخته‌اند.

اگرچه AI امروز تنها می‌تواند برخی وظایف معین را اتوماتیک انجام دهد، از همین حالا نگرانی‌هایی جدی ایجاد کرده است. در دهه گذشته، مهندسان، استادان، افشاگران و خبرنگاران مکرراً مواردی را ثبت کرده‌اند که در آن‌ها سیستم‌های AI، متشکل از نرم‌افزارها و الگوریتم‌ها، باعث آسیب‌هایی جدی به انسان‌ها شده‌اند.

فیدهای شبکه‌های اجتماعی می‌توانند محتوایی سمی برای نوجوانان آسیب‌پذیر نشان دهند؛ پهپادهای نظامی تحت هدایت AI می‌توانند بدون استدلال‌های اخلاقی آدم بکشند. به‌علاوه، یک الگوریتم AI بیشتر شبیه به یک جعبه‌سیاه دستورپذیر است تا یک مکانیسم ساعت. پژوهشگران اغلب نمی‌توانند بفهمند این الگوریتم‌ها که براساس معادلاتی مبهم و شامل هزاران محاسبه هستند، چگونه به خروجی‌های خود دست می‌یابند.

مشکلات AI از نظرها پنهان نمانده است و پژوهشگران آکادمیک تلاش می‌کنند تا این سیستم‌ها را امن‌تر و اخلاقی‌تر بسازند. کمپانی‌هایی که محصولات AI‌محور می‌سازند، درحال تلاش برای حذف آسیب‌ها هستند؛ اگرچه معمولاً تمایلی ندارند تلاش‌های خود را به‌طور شفاف نشان دهند.

در چند سال گذشته استفاده از هوش مصنوعی در اپ‌های رسانه‌های اجتماعی به نگرانی دیگری تبدیل شده است. بسیاری از این اپلیکیشن‌ها از الگوریتم‌های AI به نام موتورهای توصیه استفاده می‌کنند که مشابه الگوریتم‌های تبلیغاتی هستند؛ یعنی تصمیم می‌گیرند چه محتوایی را به کاربران نشان دهند.

درحال‌حاضر صدها خانواده کمپانی‌های رسانه‌های اجتماعی را تحت تعقیب قرار داده‌اند؛ به این اتهام که اپ‌های تحت هدایت الگوریتم‌ها محتوای سمی به کودکان نشان می‌دهند و باعث مشکلات سلامت روان می‌شوند. مدارس عمومی سیاتل به‌تازگی پرونده‌ای قضایی را تشکیل داده‌اند که می‌گوید محصولات رسانه‌های اجتماعی اعتیادآور و استثمارکننده هستند.

اما گره‌گشایی از آثار حقیقی یک الگوریتم کار ساده‌ای نیست. پلتفرم‌های اجتماعی داده‌های اندکی از فعالیت کاربران منتشر می‌کنند که پژوهشگران مستقل برای ارزیابی‌های خود به آن‌ها نیاز دارند.

طبیعت مشکلات AI نیز متغیر است. در دو سال گذشته محصولات «AI تولیدکننده» منتشر شده‌اند که می‌توانند متن‌ها و تصاویری با کیفیت شگفت‌آور تولید کنند. جمعیت روزافزونی از پژوهشگران هوش مصنوعی حالا باور دارند که سیستم‌های AI قدرتمند آینده می‌توانند بر این دستاوردها سوار شوند و روزی خطراتی جهانی و فاجعه‌بار ایجاد کنند.

این تهدید‌ها چگونه می‌توانند باشند؟ در مقاله‌ای که اوایل پاییز در مخزن arXiv.org منتشر شد، پژوهشگران DeepMind (یکی از شاخه‌های کمپانی مادر گوگل، آلفابت) یک سناریوی فاجعه‌بار را توصیف می‌کنند.

آن‌ها تصور می‌کنند که مهندسان یک AI کُدساز بر پایه اصول علمی موجود ساخته‌اند که وظیفه دارد کدنویس‌های انسانی را متقاعد کند که پیشنهادهایش را در پروژه‌های کدنویسی خود به‌کار گیرند. ایده این است که با پیشنهادهای بیشتر و بیشتر AI و رد‌شدن بعضی از آن‌ها، بازخورد انسانی به آن کمک می‌کند تا کدنویسی را بهتر یاد بگیرد. اما پژوهشگران می‌گویند که این AI تنها با هدف اتخاذ‌شدن کدهایش، شاید بتواند یک استراتژی را به‌طرز تراژیکی ناامن توسعه دهد؛ مثلاً دستیابی به سلطه جهانی و اجباری‌کردن استفاده از کدهایش، حتی به قیمت نابودی تمدن انسانی.

برخی دانشمندان می‌گویند که پژوهش روی مشکلات موجود که ملموس و متعدد هستند، باید نسبت به کار روی فجایع بالقوه و فرضی آینده اولویت داشته باشد.

دیگر پژوهشگران می‌گویند چگونگی جلوگیری از یک سیستم هوش مصنوعی قوی در آینده برای ایجاد فاجعه‌ای جهانی همین حالا نیز یک نگرانی بزرگ است. «یان لیکه» (Jan Leike)، پژوهشگر AI در کمپانی OpenAI، می‌گوید: «برای من این اصلی‌ترین مشکلی است که باید آن‌را حل کنیم.» اگرچه این خطرات آینده بسیار دور تماماً فرضی هستند، اما قطعاً محرک پژوهشگرانی روزافزون برای مطالعه تاکتیک‌های کاهش آسیب‌های مختلف به شمار می‌آیند.

در رویکردی به نام تراز ارزش، به پرچم‌داری «استوارت راسل» (Stuart Russel)، دانشمند AI دانشگاه کالیفرنیا برکلی، پژوهشگران به‌دنبال راهی هستند که به یک سیستم هوش مصنوعی ارزش‌های انسانی را یاد دهند تا سازگار با آن‌ها عمل کند. یکی از مزایای این رویکرد این است که می‌تواند حالا توسعه یابد و قبل از اینکه سیستم‌های آینده خطراتی ویرانگر ایجاد کنند، در آن‌ها اعمال شود.

منتقدین می‌گویند تراز ارزش تنها با تنگ‌نظری روی ارزش‌های انسانی تمرکز می‌کند، درحالی‌که الزامات بسیار دیگری برای امن ساختن هوش مصنوعی وجود دارد. برای مثال، درست مانند انسان‌ها، یک بنیان دانش معتبر و بر پایه واقعیت لازم است تا سیستم‌های AI تصمیم‌های خوب بگیرند.

با در نظر داشتن این نقد، پژوهشگران دیگر درحال کار روی توسعه نظریه‌ای جامع‌تر برای هم‌ترازی هوش مصنوعی هستند که هدفش تضمین امنیت سیستم‌های آینده است – بدون تمرکز محدود روی ارزش‌های انسانی.

برخی از این کمپانی‌ها، ازجمله OpenAI و DeepMind، این مشکلات را مربوط به هم‌ترازی ناکافی می‌دانند. آن‌ها درحال کار روی بهبود هم‌ترازی در هوش مصنوعی تولیدکننده متن هستند و امیدوارند این کار بتواند بینش‌هایی برای هم‌ترازی سیستم‌های آینده ارائه دهد.

پژوهشگران تصدیق می‌کنند که نظریه‌ای عام برای هم‌ترازی هوش مصنوعی وجود ندارد. لیکه می‌گوید: «ما واقعاً برای پرسش چگونگی تراز‌کردن سیستم‌هایی که بسیار باهوش‌تر از انسان‌ها هستند، پاسخی نداریم.» اما صرف‌نظر از اینکه آیا بدترین مشکلات AI در گذشته، حال یا آینده هستند، دیگر بزرگ‌ترین مانع برای حل آن‌ها فقدان تلاش نیست.

دیجیاتو

مطالب مرتبط

fasa logo 3 - Footer Dark 02 - 2

فسا با انجام پروژه های متعدد و ارائه راه حل های مورد اعتماد در حوزه های صنعتی، بیمه ای، خدمات ارزش افزوده، حمل و نقل هوشمند و مراکز داده، امنیت و تجهیز ساختمان ها تبدیل به یکی از فعالترین شرکت های مطرح در فناوری اطلاعات و ارتباطات در سطح مطلوب فناوری و تکنولوژی روز شده است.

 



اطلاعات تماس



 آدرس: تهران – بلوار میرداماد – خیابان کازرون – خیابان نیکنام – پلاک ۱۰


 ایمیل: info@fasatech.com

 تلفن: 5 -26424001-021



خدمات

• تولید و توسعه نرم‌افزار(IS)

• شبکه و زیرساخت(IT)

• برنامه‌ریزی منابع انسانی(EPR)

• امنیت اطلاعات و ارتباطات

• تامین تجهیزات و سخت‌افزار

• تامین منابع انسانی متخصص



لینک‌های مرتبط

car - Footer Dark 02 - 4
bike - Footer Dark 02 - 5