خیلی زود بعد از آنکه «آلن تورینگ» مطالعه علم کامپیوتر را در سال ۱۹۳۶ آغاز کرد، این موضوع ذهنش را درگیر کرد که بشریت روزی میتواند ماشینهایی با هوش قابل قیاس با انسان بسازد یا خیر. هوش مصنوعی، حوزهای مدرن که با این پرسش دست به گریبان است، از آن زمان راه درازی را پیموده؛ اما ما با اختراع ماشینهای واقعاً هوشمند که بتوانند بهطور مستقل وظایف متفاوت بسیاری را انجام دهند، بسیار فاصله داریم.
اگرچه در ادبیات علمی-تخیلی مدتهاست تصور میشود که هوش مصنوعی (AI) روزی گونههایی بدطینت بهخود میگیرد (مانند اندرویدهای بیاخلاق یا ترمیناتورهای قاتل)، پژوهشگران امروزی هوش مصنوعی بیشتر نگران الگوریتمهای روزمره AI هستند که درحالحاضر با زندگی ما درآمیختهاند.
اگرچه AI امروز تنها میتواند برخی وظایف معین را اتوماتیک انجام دهد، از همین حالا نگرانیهایی جدی ایجاد کرده است. در دهه گذشته، مهندسان، استادان، افشاگران و خبرنگاران مکرراً مواردی را ثبت کردهاند که در آنها سیستمهای AI، متشکل از نرمافزارها و الگوریتمها، باعث آسیبهایی جدی به انسانها شدهاند.
فیدهای شبکههای اجتماعی میتوانند محتوایی سمی برای نوجوانان آسیبپذیر نشان دهند؛ پهپادهای نظامی تحت هدایت AI میتوانند بدون استدلالهای اخلاقی آدم بکشند. بهعلاوه، یک الگوریتم AI بیشتر شبیه به یک جعبهسیاه دستورپذیر است تا یک مکانیسم ساعت. پژوهشگران اغلب نمیتوانند بفهمند این الگوریتمها که براساس معادلاتی مبهم و شامل هزاران محاسبه هستند، چگونه به خروجیهای خود دست مییابند.
مشکلات AI از نظرها پنهان نمانده است و پژوهشگران آکادمیک تلاش میکنند تا این سیستمها را امنتر و اخلاقیتر بسازند. کمپانیهایی که محصولات AIمحور میسازند، درحال تلاش برای حذف آسیبها هستند؛ اگرچه معمولاً تمایلی ندارند تلاشهای خود را بهطور شفاف نشان دهند.
در چند سال گذشته استفاده از هوش مصنوعی در اپهای رسانههای اجتماعی به نگرانی دیگری تبدیل شده است. بسیاری از این اپلیکیشنها از الگوریتمهای AI به نام موتورهای توصیه استفاده میکنند که مشابه الگوریتمهای تبلیغاتی هستند؛ یعنی تصمیم میگیرند چه محتوایی را به کاربران نشان دهند.
درحالحاضر صدها خانواده کمپانیهای رسانههای اجتماعی را تحت تعقیب قرار دادهاند؛ به این اتهام که اپهای تحت هدایت الگوریتمها محتوای سمی به کودکان نشان میدهند و باعث مشکلات سلامت روان میشوند. مدارس عمومی سیاتل بهتازگی پروندهای قضایی را تشکیل دادهاند که میگوید محصولات رسانههای اجتماعی اعتیادآور و استثمارکننده هستند.
اما گرهگشایی از آثار حقیقی یک الگوریتم کار سادهای نیست. پلتفرمهای اجتماعی دادههای اندکی از فعالیت کاربران منتشر میکنند که پژوهشگران مستقل برای ارزیابیهای خود به آنها نیاز دارند.
طبیعت مشکلات AI نیز متغیر است. در دو سال گذشته محصولات «AI تولیدکننده» منتشر شدهاند که میتوانند متنها و تصاویری با کیفیت شگفتآور تولید کنند. جمعیت روزافزونی از پژوهشگران هوش مصنوعی حالا باور دارند که سیستمهای AI قدرتمند آینده میتوانند بر این دستاوردها سوار شوند و روزی خطراتی جهانی و فاجعهبار ایجاد کنند.
این تهدیدها چگونه میتوانند باشند؟ در مقالهای که اوایل پاییز در مخزن arXiv.org منتشر شد، پژوهشگران DeepMind (یکی از شاخههای کمپانی مادر گوگل، آلفابت) یک سناریوی فاجعهبار را توصیف میکنند.
آنها تصور میکنند که مهندسان یک AI کُدساز بر پایه اصول علمی موجود ساختهاند که وظیفه دارد کدنویسهای انسانی را متقاعد کند که پیشنهادهایش را در پروژههای کدنویسی خود بهکار گیرند. ایده این است که با پیشنهادهای بیشتر و بیشتر AI و ردشدن بعضی از آنها، بازخورد انسانی به آن کمک میکند تا کدنویسی را بهتر یاد بگیرد. اما پژوهشگران میگویند که این AI تنها با هدف اتخاذشدن کدهایش، شاید بتواند یک استراتژی را بهطرز تراژیکی ناامن توسعه دهد؛ مثلاً دستیابی به سلطه جهانی و اجباریکردن استفاده از کدهایش، حتی به قیمت نابودی تمدن انسانی.
برخی دانشمندان میگویند که پژوهش روی مشکلات موجود که ملموس و متعدد هستند، باید نسبت به کار روی فجایع بالقوه و فرضی آینده اولویت داشته باشد.
دیگر پژوهشگران میگویند چگونگی جلوگیری از یک سیستم هوش مصنوعی قوی در آینده برای ایجاد فاجعهای جهانی همین حالا نیز یک نگرانی بزرگ است. «یان لیکه» (Jan Leike)، پژوهشگر AI در کمپانی OpenAI، میگوید: «برای من این اصلیترین مشکلی است که باید آنرا حل کنیم.» اگرچه این خطرات آینده بسیار دور تماماً فرضی هستند، اما قطعاً محرک پژوهشگرانی روزافزون برای مطالعه تاکتیکهای کاهش آسیبهای مختلف به شمار میآیند.
در رویکردی به نام تراز ارزش، به پرچمداری «استوارت راسل» (Stuart Russel)، دانشمند AI دانشگاه کالیفرنیا برکلی، پژوهشگران بهدنبال راهی هستند که به یک سیستم هوش مصنوعی ارزشهای انسانی را یاد دهند تا سازگار با آنها عمل کند. یکی از مزایای این رویکرد این است که میتواند حالا توسعه یابد و قبل از اینکه سیستمهای آینده خطراتی ویرانگر ایجاد کنند، در آنها اعمال شود.
منتقدین میگویند تراز ارزش تنها با تنگنظری روی ارزشهای انسانی تمرکز میکند، درحالیکه الزامات بسیار دیگری برای امن ساختن هوش مصنوعی وجود دارد. برای مثال، درست مانند انسانها، یک بنیان دانش معتبر و بر پایه واقعیت لازم است تا سیستمهای AI تصمیمهای خوب بگیرند.
با در نظر داشتن این نقد، پژوهشگران دیگر درحال کار روی توسعه نظریهای جامعتر برای همترازی هوش مصنوعی هستند که هدفش تضمین امنیت سیستمهای آینده است – بدون تمرکز محدود روی ارزشهای انسانی.
برخی از این کمپانیها، ازجمله OpenAI و DeepMind، این مشکلات را مربوط به همترازی ناکافی میدانند. آنها درحال کار روی بهبود همترازی در هوش مصنوعی تولیدکننده متن هستند و امیدوارند این کار بتواند بینشهایی برای همترازی سیستمهای آینده ارائه دهد.
پژوهشگران تصدیق میکنند که نظریهای عام برای همترازی هوش مصنوعی وجود ندارد. لیکه میگوید: «ما واقعاً برای پرسش چگونگی ترازکردن سیستمهایی که بسیار باهوشتر از انسانها هستند، پاسخی نداریم.» اما صرفنظر از اینکه آیا بدترین مشکلات AI در گذشته، حال یا آینده هستند، دیگر بزرگترین مانع برای حل آنها فقدان تلاش نیست.
فسا با انجام پروژه های متعدد و ارائه راه حل های مورد اعتماد در حوزه های صنعتی، بیمه ای، خدمات ارزش افزوده، حمل و نقل هوشمند و مراکز داده، امنیت و تجهیز ساختمان ها تبدیل به یکی از فعالترین شرکت های مطرح در فناوری اطلاعات و ارتباطات در سطح مطلوب فناوری و تکنولوژی روز شده است.
آدرس: تهران – بلوار میرداماد – خیابان کازرون – خیابان نیکنام – پلاک ۱۰
ایمیل: info@fasatech.com
تلفن: 5 -26424001-021
• تولید و توسعه نرمافزار(IS)
• شبکه و زیرساخت(IT)
• برنامهریزی منابع انسانی(EPR)
• امنیت اطلاعات و ارتباطات
• تامین تجهیزات و سختافزار
• تامین منابع انسانی متخصص