یوجین کسپرسکی از مقررات هوش مصنوعی می‌گوید

یوجین کسپرسکی از مقررات هوش مصنوعی می‌گوید

اخبار

یوجین کسپرسکی از مقررات هوش مصنوعی می‌گوید

یوجین کسپرسکی از مقررات هوش مصنوعی می‌گوید

این روزها هر طرف رو می‌کنیم اخبار هوش مصنوعی است. شاید خیلی از شما خسته شده باشید اما فکر کنیم باید کمی بیشتر تحمل کنید چون مطمئناً این اخبار جنجالی را دست کم تا یکی دو سال دیگر خواهید شنید. نه اینکه هوش مصنوعی دیگر توسعه داده نشود بلکه ژورنالیست‌ها، بلاگرها، تیک‌تاکرها، توییتری‌ها و افراد دیگر در نهایت از این موضوع تکراری خسته شده و آن‌ را کنار خواهند گذاشت. اما نقداً غول‌های تکنولوژی سفت به هوش مصنوعی چسبیده اند و دولت‌ها هم از آن‌ها حمایت می‌کنند: انگلستان قرار است رگولاسیون سه‌جانبه‌ای را برای AI معرفی کند؛ چین پیش‌نویسی از قانون AI آماده کرده که قرار است به طور عمومی بدان پرداخته شود؛ اتحادیه اروپا هنوز در حال بحث روی هوش مصنوعی است اما قانون نهایی را مصوب نکرده است. همانطور که مستحضر هستید برنامه‌ها برای آینده زیاد است اما تا به امروز ساخت و استفاده از سیستم‌های هوش مصنوعی هرگز به طریق خاصی مدیریت یا محدود نشده‌اند اما به نظر می‌رسد خیلی زود شاهد تغییر این روند باشیم.

نکته قابل‌بحث اما این است: آیا اصلاً هوش مصنوعی نیاز به قانون‌گذاری دولتی دارد؟ اگر بله، چرا و این قانون‌گذاری باید چه شکلی باشد؟

چه قانونی را باید تنظیم کرد؟

 هوش مصنوعی چیست؟ به لطف دپارتمان‌های بازاریابی این واژه برای خیلی‌ چیزها به کار می‌رود – از مدل‌های تولیدکننده جدید مانند GPT-4  گرفته تا ساده‌ترین سیستم‌های یادگیری ماشین از جمله سیستم‌هایی که ده‌ها سال است روی کارند. T9 روی گوشی‌های دکمه‌ای یادتان است؟ در مورد اسپم خودکار یا دسته‌بندی فایل آلوده چطور؟ چیزی شنیده‌اید؟ همین پیشنهادهای فیلم در نتفلیکس. همه این فناوری‌های مشابه بر پایه الگوریتم‌های ML  یا همان یادگیری ماشین هستند (و مادر همه اینها هوش مصنوعی است). اینجا ما در کسپرسکی در محصولات خودمان نیز نزدیک به بیست سال است از این فناوری‌ها استفاده می‌کنیم. همیشه هم ترجیحمان بوده به آن‌ها یادگیری ماشین بگوییم و دلیلش هم فقط این است که هوش مصنوعی برای بقیه به نظر چیزهایی مانند ابرکامپیوترهای سفینه‌های فضایی و چیزهایی که در کتاب‌های علمی تخیلی یافت می‌شوند است. بنابراین، لازم است قانون‌گذاران نه به بازاریابان که به متخصصین صنعت هوش مصنوعی/یادگیری ماشین گوش دهند و در مورد مقررات بالقوه‌ به طرزی متمرکز و مشخص وارد مباحثه شوند: برای مثال احتمالاً استفاده از سیستم‌های چندکاره که روی حجم وسیعی از داده‌های باز آموزش دیدند یا سیستم‌هایی با مسئولیت بالا و قدرت تصمیم‌گیری در سطح خطر‌پذیر. و اپ‌های جدید هوش مصنوعی نیاز به بازنگری مقررات دارند.

چرا باید مقرراتی تنظیم شود؟

اگر بخواهیم صادق باشیم گمان نکنیم تا چند صد سال آینده آن قیامتی که هوش برتر به راه می‌اندازد رخ دهد. اما اعتقاد داریم استفاده بی‌فکرانه از جعبه‌سیاه کامپیوتر می‌تواند دردسرهایی داشته باشد. برای کسانی که شاید از مزایا و معایب یادگیری ماشین بی‌خبر ماندند یادآوری‌هایی کرده‌ایم. این‌ها اصلی‌ترین موارد هوش مصنوعی هستند:

  •         مشخص نیست داده‌های آموزش‌دیده چقدر خوب بتوانند مورد استفاده قرار گیرند.
  •         مشخص نیست هوش مصنوعی چقدر در درک آن انبوه داده موفق شده است یا چطور قرار است تصمیمات خود را بگیرد.
  •         و مهم‌تر از همه، این الگوریتم می‌تواند توسط توسعه‌دهندگان و کاربرانش مورد سوءاستفاده قرار گیرد.

از این رو هر چیزی ممکن است رخ دهد:

از استفاده مخرب از هوش مصنوعی گرفته تا انطباق بی‌فکرانه‌ با تصمیمات AI. نمونه‌های بارز در زندگی واقعی: خطاهای مرگبار اتوپایلت، دیپ‌فیک که شاید فعلاً محض خنده و سرگرمی در میم‌ها دیده شود اما قطعاً خسارات جبران‌ناپذیری خواهد داشت؛ خطایی احمقانه در قرارداد معلم مدرسه، پلیسی که به اشتباه دزد مغازه را دستگیر می‌کند یا ابزار استخدامی زن‌ستیزانه‌ی AI. از اینها گذشته، هر هوش مصنوعی می‌تواند با کمک نمونه داده‌های خصمانه‌ی سفارشی‌سازی‌شده مورد حمله قرار گیرد: وسایل نقلیه را می‌شود با یک سری برچسب فریب داد، فرد می‌تواند از جی‌پی‌تی 3 اطلاعات شخصی بیرون بکشد؛ حتی می‌شود آنتی‌ویروس‌ها یا EDR را نیز قریب داد! خلاصه بگوییم، استفاده از هوش مصنوعی دارد دردسرساز می‌شود و از این باید برای قانون‌گذاری اولویت‌هایی لحاظ شود. این قوانین باید صراحتاً شامل موارد زیر شوند:

  •         جلوگیری از رخدادهای مهم زیرساخت (کارخانه‌ها، کشت‌ها،خطوط انتقال برق، نیروگاه‌های هسته‌ای)
  •         کاهش تهدیدهای فیزیکی (وسایل نقلیه خودکار، بیماری‌هایی که تشخیص نادرست می‌شوند)
  •         کاهش خسارت شخصی و ریسک‌های تجاری (دستگیری‌ها یا استخدام‌هایی بر اساس اقدامات بی‌فکرانه، محاسبات نادرست تقاضا/خریدها و غیره)

هدف رگولاسیون باید مجبور کردن کاربران و فروشندگان AI باشد که مواظب باشند ریسک‌ چیزهای منفی را که بالا اشاره کردیم بالاتر نبرند. هر قدر ریسک جدی‌تر باشد باید قوانین سفت و سخت‌تر گرفته شود. نگرانی دیگری که اغلب در مورد AI هست: نیاز به رعایت هنجارهای اخلاقی است. باید راحتی روانی لحاظ شود. به همین منظور هشدارهایی به افراد داده می‌شود که بدانند آن‌ها دارند یک جسم نیروگرفته از هوش مصنوعی را می‌بینند که حضور واقعی ندارد یا دارند با ربات و نه یک انسان ارتباط می‌گیرند. همچنین باید در مورد کپی‌رایت در طول آموزش هوش مصنوعی نیز بدان‌ها اطلاعاتی داده شود و غیره. شاید بپرسید همه اینها به چه دلیل است؟ قانون‌گذاران و فروشندگان هوش مصنوعی نباید هدف اوباش قرار گیرند! و این نگرانی اصلی در برخی بخش‌های جهان است (یادتان است علیه سرویس تاکسی اوبر چه اعتراضاتی شد؟).

نحوه تنظیم قوانین

ساده‌ترین راه این است که همه‌چیز ممنوع شود اما این رویکردی نیست که بشود پیاده‌سازی‌اش کرد. استفاده نکردن از هوش مصنوعی به ناممکنی استفاده نکردن از کامپیوترهاست. از این رو باید با اصل «اگر ریسم بزرگ است باید قانون‌گذاری سختگیرانه‌تر باشد» جلو رفت. مدل‌های یادگیری ماشین که برای موارد غیرمهم مانند توصیه‌های خریداران خرده‌،فروش استفاده می‌شوند شاید نیازمند قوانین جدی نباشند اما مدل‌های پیچیده‌تر و موارد کاربرد حساس‌تر نیازمند این است که به فروشندگان سیستم و کاربران سخت‌تر گرفته شود. برای مثال:

  •         ارائه کد مدل یا مجموعه داده آموزشی برای بازرسی به تنظیم کننده‌ها یا کارشناسان.
  •         اثبات استحکام یک مجموعه داده آموزشی، از جمله از نظر تعصب، حق چاپ و غیره.
  •         اثبات معقول بودن «خروجی» هوش مصنوعی؛ به عنوان مثال، عاری از توهم باشد.
  •         برچسب‌گذاری عملیات و نتایج هوش مصنوعی.
  •         به روزرسانی یک مدل و مجموعه داده آموزشی. به عنوان مثال، غربال کردن افراد دارای رنگ پوست مشخص از داده های منبع، یا سرکوب فرمول‌های شیمیایی مواد منفجره در خروجی مدل.
  •         تست داده‌های خصمانه و آپدیت رفتار آن در صورت لزوم.
  •         کنترل اینکه چه کسی از هوش مصنوعی خاص استفاده می‌کند و چرا. انکار انواع خاصی از کاربردها.
  •         آموزش هوش مصنوعی بزرگ، یا آنچه که در یک منطقه خاص اعمال می‌شود، تنها با اجازه تنظیم‌کننده.
  •         اثبات بی خطر بودن استفاده از هوش مصنوعی برای رسیدگی به یک مشکل خاص. این رویکرد برای فناوری اطلاعات بسیار عجیب و غریب است، اما برای مثال، شرکت‌های داروسازی، سازندگان هواپیما و بسیاری از صنایع دیگر که ایمنی در آنها اولویت دارد، با این رویکرد کاملاً آشنا هستند. ابتدا پنج سال آزمایش کامل، سپس مجوز تنظیم کننده، و تنها پس از آن یک محصول می تواند برای استفاده عمومی عرضه شود.

شاید اقدام آخر سختگیرانه به نظر برسد اما وقتی از حوادثی که در آن هوش مصنوعی اولویت‌های درمانی برای برای بیماران حاد آسم و ذات‌الریه را به هم ریخته بود (به جای اینکه در بخش مراقبت‌ها ویژه نگهداری شوند آن‌ها را مرخص کرده بودند) مطلع شوید دیگر این اقدام سختگیرانه به نظر نخواهد رسید. اقدامات اجرایی طیف وسیعی خواهد داشت: از جریمه برای تخطی از قوانین AI (به موازات مجازات‌های اروپایی برای نقض GDPR) گرفته تا لایسنس کردن فعالیت‌های مرتبط با هوش مصنوعی و تحریم‌های کیفری برای نقض قانون (کمااینکه در چین شاهد این فعالیت‌ها هستیم).

اقدام درست کدام است؟

در زیر نظرات شخصی (یوجین کسپرسکی مدیر شرکت کسپرسکی) آورده شده‌اند اما باید در نظر داشت آنها حاصل 30 سال پیگیری فعال توسعه فناوری پیشرفته در صنعت امنیت سایبری هستند: از یادگیری ماشین تا سیستم‌های "ایمن بر اساس طراحی".

نخست ما نیاز به مقررات داریم. بدون آن، هوش مصنوعی در نهایت شبیه به بزرگراه های بدون قوانین ترافیکی خواهد شد. یا بهتر است بگوییم شبیه وضعیت جمع آوری داده‌های شخصی آنلاین در اواخر دهه 2000، زمانی که تقریباً همه هر آنچه را که می توانستند جمع آوری می‌کردند. مهمتر از همه، مقررات، خود انضباطی را در بازیگران بازار ترویج می‌کند.

دوم، ما باید هماهنگ‌سازی و همکاری بین‌المللی در مقررات را به حداکثر برسانیم - به همان روشی که استانداردهای فنی در ارتباطات سیار، اینترنت و غیره انجام می‌شود. شاید این با توجه به واقعیت ژئوپلیتیک مدرن، آرمان‌شهر به نظر برسد، اما چیزی از ارزش‌هایش کم نمی‌کند.

سوم، مقررات نباید خیلی سختگیرانه باشد: خفه کردن صنعتی جوان و پویا مانند نظارت بیش از حد، کوته‌بینانه است. با این اوصاف، ما به مکانیزمی برای بازنگری مکرر قوانین نیاز داریم تا در جریان فناوری و تحولات بازار باشیم.

چهارم، قوانین، سطوح خطر و سطوح اقدامات حفاظتی باید با مشورت تعداد زیادی از کارشناسان با تجربه مرتبط تعریف شوند.

پنجم، لازم نیست ده سال صبر کنیم. من (یوجین کسپرسکی) بیش از یک دهه است که درباره خطرات جدی ذاتی اینترنت اشیاء و آسیب‌پذیری‌های تجهیزات صنعتی صحبت می‌کنم، در حالی که اسنادی مانند قانون انعطاف‌پذیری سایبری اتحادیه اروپا برای اولین بار (به عنوان پیش‌نویس!) تنها در سال گذشته ظاهر شدند.

 

 

 

 

 

 

 

 

 

 

 

 



نظرات کاربران
ارسال نظر