این روزها هر طرف رو میکنیم اخبار هوش مصنوعی است. شاید خیلی از شما خسته شده باشید اما فکر کنیم باید کمی بیشتر تحمل کنید چون مطمئناً این اخبار جنجالی را دست کم تا یکی دو سال دیگر خواهید شنید. نه اینکه هوش مصنوعی دیگر توسعه داده نشود بلکه ژورنالیستها، بلاگرها، تیکتاکرها، توییتریها و افراد دیگر در نهایت از این موضوع تکراری خسته شده و آن را کنار خواهند گذاشت. اما نقداً غولهای تکنولوژی سفت به هوش مصنوعی چسبیده اند و دولتها هم از آنها حمایت میکنند: انگلستان قرار است رگولاسیون سهجانبهای را برای AI معرفی کند؛ چین پیشنویسی از قانون AI آماده کرده که قرار است به طور عمومی بدان پرداخته شود؛ اتحادیه اروپا هنوز در حال بحث روی هوش مصنوعی است اما قانون نهایی را مصوب نکرده است. همانطور که مستحضر هستید برنامهها برای آینده زیاد است اما تا به امروز ساخت و استفاده از سیستمهای هوش مصنوعی هرگز به طریق خاصی مدیریت یا محدود نشدهاند اما به نظر میرسد خیلی زود شاهد تغییر این روند باشیم.
نکته قابلبحث اما این است: آیا اصلاً هوش مصنوعی نیاز به قانونگذاری دولتی دارد؟ اگر بله، چرا و این قانونگذاری باید چه شکلی باشد؟
چه قانونی را باید تنظیم کرد؟
هوش مصنوعی چیست؟ به لطف دپارتمانهای بازاریابی این واژه برای خیلی چیزها به کار میرود – از مدلهای تولیدکننده جدید مانند GPT-4 گرفته تا سادهترین سیستمهای یادگیری ماشین از جمله سیستمهایی که دهها سال است روی کارند. T9 روی گوشیهای دکمهای یادتان است؟ در مورد اسپم خودکار یا دستهبندی فایل آلوده چطور؟ چیزی شنیدهاید؟ همین پیشنهادهای فیلم در نتفلیکس. همه این فناوریهای مشابه بر پایه الگوریتمهای ML یا همان یادگیری ماشین هستند (و مادر همه اینها هوش مصنوعی است). اینجا ما در کسپرسکی در محصولات خودمان نیز نزدیک به بیست سال است از این فناوریها استفاده میکنیم. همیشه هم ترجیحمان بوده به آنها یادگیری ماشین بگوییم و دلیلش هم فقط این است که هوش مصنوعی برای بقیه به نظر چیزهایی مانند ابرکامپیوترهای سفینههای فضایی و چیزهایی که در کتابهای علمی تخیلی یافت میشوند است. بنابراین، لازم است قانونگذاران نه به بازاریابان که به متخصصین صنعت هوش مصنوعی/یادگیری ماشین گوش دهند و در مورد مقررات بالقوه به طرزی متمرکز و مشخص وارد مباحثه شوند: برای مثال احتمالاً استفاده از سیستمهای چندکاره که روی حجم وسیعی از دادههای باز آموزش دیدند یا سیستمهایی با مسئولیت بالا و قدرت تصمیمگیری در سطح خطرپذیر. و اپهای جدید هوش مصنوعی نیاز به بازنگری مقررات دارند.
چرا باید مقرراتی تنظیم شود؟
اگر بخواهیم صادق باشیم گمان نکنیم تا چند صد سال آینده آن قیامتی که هوش برتر به راه میاندازد رخ دهد. اما اعتقاد داریم استفاده بیفکرانه از جعبهسیاه کامپیوتر میتواند دردسرهایی داشته باشد. برای کسانی که شاید از مزایا و معایب یادگیری ماشین بیخبر ماندند یادآوریهایی کردهایم. اینها اصلیترین موارد هوش مصنوعی هستند:
- مشخص نیست دادههای آموزشدیده چقدر خوب بتوانند مورد استفاده قرار گیرند.
- مشخص نیست هوش مصنوعی چقدر در درک آن انبوه داده موفق شده است یا چطور قرار است تصمیمات خود را بگیرد.
- و مهمتر از همه، این الگوریتم میتواند توسط توسعهدهندگان و کاربرانش مورد سوءاستفاده قرار گیرد.
از این رو هر چیزی ممکن است رخ دهد:
از استفاده مخرب از هوش مصنوعی گرفته تا انطباق بیفکرانه با تصمیمات AI. نمونههای بارز در زندگی واقعی: خطاهای مرگبار اتوپایلت، دیپفیک که شاید فعلاً محض خنده و سرگرمی در میمها دیده شود اما قطعاً خسارات جبرانناپذیری خواهد داشت؛ خطایی احمقانه در قرارداد معلم مدرسه، پلیسی که به اشتباه دزد مغازه را دستگیر میکند یا ابزار استخدامی زنستیزانهی AI. از اینها گذشته، هر هوش مصنوعی میتواند با کمک نمونه دادههای خصمانهی سفارشیسازیشده مورد حمله قرار گیرد: وسایل نقلیه را میشود با یک سری برچسب فریب داد، فرد میتواند از جیپیتی 3 اطلاعات شخصی بیرون بکشد؛ حتی میشود آنتیویروسها یا EDR را نیز قریب داد! خلاصه بگوییم، استفاده از هوش مصنوعی دارد دردسرساز میشود و از این باید برای قانونگذاری اولویتهایی لحاظ شود. این قوانین باید صراحتاً شامل موارد زیر شوند:
- جلوگیری از رخدادهای مهم زیرساخت (کارخانهها، کشتها،خطوط انتقال برق، نیروگاههای هستهای)
- کاهش تهدیدهای فیزیکی (وسایل نقلیه خودکار، بیماریهایی که تشخیص نادرست میشوند)
- کاهش خسارت شخصی و ریسکهای تجاری (دستگیریها یا استخدامهایی بر اساس اقدامات بیفکرانه، محاسبات نادرست تقاضا/خریدها و غیره)
هدف رگولاسیون باید مجبور کردن کاربران و فروشندگان AI باشد که مواظب باشند ریسک چیزهای منفی را که بالا اشاره کردیم بالاتر نبرند. هر قدر ریسک جدیتر باشد باید قوانین سفت و سختتر گرفته شود. نگرانی دیگری که اغلب در مورد AI هست: نیاز به رعایت هنجارهای اخلاقی است. باید راحتی روانی لحاظ شود. به همین منظور هشدارهایی به افراد داده میشود که بدانند آنها دارند یک جسم نیروگرفته از هوش مصنوعی را میبینند که حضور واقعی ندارد یا دارند با ربات و نه یک انسان ارتباط میگیرند. همچنین باید در مورد کپیرایت در طول آموزش هوش مصنوعی نیز بدانها اطلاعاتی داده شود و غیره. شاید بپرسید همه اینها به چه دلیل است؟ قانونگذاران و فروشندگان هوش مصنوعی نباید هدف اوباش قرار گیرند! و این نگرانی اصلی در برخی بخشهای جهان است (یادتان است علیه سرویس تاکسی اوبر چه اعتراضاتی شد؟).
نحوه تنظیم قوانین
سادهترین راه این است که همهچیز ممنوع شود اما این رویکردی نیست که بشود پیادهسازیاش کرد. استفاده نکردن از هوش مصنوعی به ناممکنی استفاده نکردن از کامپیوترهاست. از این رو باید با اصل «اگر ریسم بزرگ است باید قانونگذاری سختگیرانهتر باشد» جلو رفت. مدلهای یادگیری ماشین که برای موارد غیرمهم مانند توصیههای خریداران خرده،فروش استفاده میشوند شاید نیازمند قوانین جدی نباشند اما مدلهای پیچیدهتر و موارد کاربرد حساستر نیازمند این است که به فروشندگان سیستم و کاربران سختتر گرفته شود. برای مثال:
- ارائه کد مدل یا مجموعه داده آموزشی برای بازرسی به تنظیم کنندهها یا کارشناسان.
- اثبات استحکام یک مجموعه داده آموزشی، از جمله از نظر تعصب، حق چاپ و غیره.
- اثبات معقول بودن «خروجی» هوش مصنوعی؛ به عنوان مثال، عاری از توهم باشد.
- برچسبگذاری عملیات و نتایج هوش مصنوعی.
- به روزرسانی یک مدل و مجموعه داده آموزشی. به عنوان مثال، غربال کردن افراد دارای رنگ پوست مشخص از داده های منبع، یا سرکوب فرمولهای شیمیایی مواد منفجره در خروجی مدل.
- تست دادههای خصمانه و آپدیت رفتار آن در صورت لزوم.
- کنترل اینکه چه کسی از هوش مصنوعی خاص استفاده میکند و چرا. انکار انواع خاصی از کاربردها.
- آموزش هوش مصنوعی بزرگ، یا آنچه که در یک منطقه خاص اعمال میشود، تنها با اجازه تنظیمکننده.
- اثبات بی خطر بودن استفاده از هوش مصنوعی برای رسیدگی به یک مشکل خاص. این رویکرد برای فناوری اطلاعات بسیار عجیب و غریب است، اما برای مثال، شرکتهای داروسازی، سازندگان هواپیما و بسیاری از صنایع دیگر که ایمنی در آنها اولویت دارد، با این رویکرد کاملاً آشنا هستند. ابتدا پنج سال آزمایش کامل، سپس مجوز تنظیم کننده، و تنها پس از آن یک محصول می تواند برای استفاده عمومی عرضه شود.
شاید اقدام آخر سختگیرانه به نظر برسد اما وقتی از حوادثی که در آن هوش مصنوعی اولویتهای درمانی برای برای بیماران حاد آسم و ذاتالریه را به هم ریخته بود (به جای اینکه در بخش مراقبتها ویژه نگهداری شوند آنها را مرخص کرده بودند) مطلع شوید دیگر این اقدام سختگیرانه به نظر نخواهد رسید. اقدامات اجرایی طیف وسیعی خواهد داشت: از جریمه برای تخطی از قوانین AI (به موازات مجازاتهای اروپایی برای نقض GDPR) گرفته تا لایسنس کردن فعالیتهای مرتبط با هوش مصنوعی و تحریمهای کیفری برای نقض قانون (کمااینکه در چین شاهد این فعالیتها هستیم).
اقدام درست کدام است؟
در زیر نظرات شخصی (یوجین کسپرسکی مدیر شرکت کسپرسکی) آورده شدهاند اما باید در نظر داشت آنها حاصل 30 سال پیگیری فعال توسعه فناوری پیشرفته در صنعت امنیت سایبری هستند: از یادگیری ماشین تا سیستمهای "ایمن بر اساس طراحی".
نخست ما نیاز به مقررات داریم. بدون آن، هوش مصنوعی در نهایت شبیه به بزرگراه های بدون قوانین ترافیکی خواهد شد. یا بهتر است بگوییم شبیه وضعیت جمع آوری دادههای شخصی آنلاین در اواخر دهه 2000، زمانی که تقریباً همه هر آنچه را که می توانستند جمع آوری میکردند. مهمتر از همه، مقررات، خود انضباطی را در بازیگران بازار ترویج میکند.
دوم، ما باید هماهنگسازی و همکاری بینالمللی در مقررات را به حداکثر برسانیم - به همان روشی که استانداردهای فنی در ارتباطات سیار، اینترنت و غیره انجام میشود. شاید این با توجه به واقعیت ژئوپلیتیک مدرن، آرمانشهر به نظر برسد، اما چیزی از ارزشهایش کم نمیکند.
سوم، مقررات نباید خیلی سختگیرانه باشد: خفه کردن صنعتی جوان و پویا مانند نظارت بیش از حد، کوتهبینانه است. با این اوصاف، ما به مکانیزمی برای بازنگری مکرر قوانین نیاز داریم تا در جریان فناوری و تحولات بازار باشیم.
چهارم، قوانین، سطوح خطر و سطوح اقدامات حفاظتی باید با مشورت تعداد زیادی از کارشناسان با تجربه مرتبط تعریف شوند.
پنجم، لازم نیست ده سال صبر کنیم. من (یوجین کسپرسکی) بیش از یک دهه است که درباره خطرات جدی ذاتی اینترنت اشیاء و آسیبپذیریهای تجهیزات صنعتی صحبت میکنم، در حالی که اسنادی مانند قانون انعطافپذیری سایبری اتحادیه اروپا برای اولین بار (به عنوان پیشنویس!) تنها در سال گذشته ظاهر شدند.