نگاهی درونی به اینکه چگونه کسب‌وکارها ریسک هوش مصنوعی را مدیریت می‌کنند یا نه

31 آگوست 2023 در هشت ماه گذشته، رشد قابلیت‌های هوش مصنوعی مولد خیره‌کننده بوده و هوش مصنوعی را از حوزه تیم‌های فناوری به صدر برنامه‌های مدیران اجرایی ارتقا داده است. بیش از دو سوم از شرکت ها انتظار دارند سرمایه گذاری هوش مصنوعی خود را طی سه سال آینده افزایش دهند.

اما مانند هر پیشرفت مهم تکنولوژیکی، هوش مصنوعی مولد خطرات جدیدی را به همراه دارد و همچنین می‌تواند خطرات موجود را تشدید کند. در جدیدترین تحقیق ما، وضعیت هوش مصنوعی در سال 2023: سال انتشار هوش مصنوعی مولد، تنها 32 درصد از پاسخ دهندگان می گویند که اقداماتی را برای جلوگیری از عدم دقت انجام می دهند، در حالی که 38 درصد نسبت به 51 درصد در سال گذشته، خطرات امنیت سایبری را مدیریت می کنند.

برای کسب اطلاعات بیشتر، با لیز گرنان، یک شریک متخصص متخصص که کار ما را در زمینه اعتماد دیجیتال در سراسر جهان رهبری می کند، و برایس هال، شریک وابسته و یکی از نویسندگان گزارش، صحبت کردیم.

رشد انفجاری ابزارهای مولد هوش مصنوعی به وضوح سرفصل این نظرسنجی بود. چه چیز دیگری می بینیم؟

برایس: کسب‌وکارها تشخیص می‌دهند که ابزارهای هوش مصنوعی مولد جدیدتر از آستانه «شیء جدید براق» تا نشان دادن قابلیت تجاری و ایجاد ارزش در حوزه‌های مختلف کسب‌وکار عبور کرده‌اند.

قسمت دوم داستان این است که شناخت گسترده ای وجود دارد – و نگرانی شدید – در مورد خطرات. بسیاری از آنها قبلاً با انواع سنتی هوش مصنوعی وجود داشتند – حریم خصوصی، برابری، ضد تعصب و توضیح پذیری. اما اکنون آگاهی از خطرات دیگری که به ویژه با ابزارهای هوش مصنوعی مولد برجسته هستند افزایش یافته است: دقت، حفاظت از IP و اسناد، امنیت سایبری و موارد دیگر.

یکی از رنگارنگ‌ترین تشبیه‌هایی که درباره هوش مصنوعی مولد شنیدم این بود: «ما به تازگی پارک ژوراسیک را افتتاح کرده‌ایم، اما هنوز نرده‌های الکتریکی را نصب نکرده‌ایم.»

چشم انداز مدیریت ریسک هوش مصنوعی چگونه تغییر کرده است؟

لیز: به قول برایس، با سرعت و پیشرفت تکنولوژی، ما حتی نمی دانیم چه نوع حصار برقی را در جای خود قرار دهیم.

یکی از چیزهای سخت افزایش و مقیاس و سرعت استفاده مخرب است. یکی از شرکای شرکت حقوقی شرایطی را که در آن شرکت‌ها مدیریت ریسک را به تعویق انداخته‌اند – چه به دلیل پیچیدگی، به تعویق انداختن، یا عدم نیاز درک شده، توصیف می‌کند: «اشک‌های زیادی وجود خواهد داشت».

آنچه اکنون متفاوت است این است که ما شاهد مطالعات موردی زیادی در مورد آسیب به شهرت، فرسایش مشتری و فرسایش ارزش بازار، همراه با افزایش جریمه ها و بررسی های نظارتی هستیم.

یکی از بزرگترین تغییرات در چند سال گذشته مفهوم مسئولیت شخصی مدیران ارشد و اعضای هیئت مدیره در قبال نارسایی های نظارتی است. رهبران باید درک خوبی از نوآوری در حال راه اندازی در سازمان خود داشته باشند، به خصوص اگر خروجی آن بر مشتریانشان تأثیر بگذارد.

شرکت ها چگونه به این چالش های فزاینده واکنش نشان داده اند؟

برایس: دیده‌ایم که برخی از سازمان‌ها کمی رویکرد «سر در شن» را اتخاذ کرده‌اند، به‌عنوان مثال، با ممنوع کردن استفاده از هوش مصنوعی مولد در سازمان‌های خود.

برخی دیگر نگرش منتظر ماندن را در پیش گرفته اند، تماشا می کنند که برخی مرزها را کشف می کنند، می بینند که چگونه این کار انجام می شود، و سپس یک استراتژی دنبال کردن سریع را اتخاذ می کنند.

شرکت های پیشرو در حال انجام چند کار هستند. به طور معمول، در توسعه یک راه‌حل هوش مصنوعی، ما یک غلاف خواهیم داشت که شامل دانشمندان داده، مهندسان داده، طراحان UX/UI و رهبران تجاری می‌شود. اما در حال حاضر کارشناسان حقوقی و ریسک سایبری نیز در ابتدا در حال بررسی هستند.

دوم، در شرکت‌های پیشرو که هوش مصنوعی مولد را اتخاذ می‌کنند، افسران ارشد ریسک نقش مهم‌تری در C-suite بازی می‌کنند.

سومین مورد، یک رویکرد شفاف و ساختاریافته برای توسعه و سپس عرضه برنامه‌های کاربردی جدید برای کاربران بتا یا «تیم‌های قرمز» است تا واقعاً نرده‌های محافظ را آزمایش کرده و مشخص کنیم که در کجا پارامترهای قوی باید در محل قرار گیرند.

چه بهترین شیوه ها را از رهبران می بینیم؟

لیز: چیزی که رهبران را متمایز می کند این است که هوش مصنوعی برخلاف تجارت قدیمی آنها به عنوان یک صحبت یکباره تلقی نمی شود. این در هسته هر کاری است که آنها انجام می دهند، و بنابراین شما نیاز به مدیریت ریسک و کنترل هایی دارید که در هر جنبه ای تعبیه شده باشد. باید بنیادی باشد.

ما داده‌های شما را به خوبی مدیریت می‌کنیم و آن‌ها را از منظر ریسک مدیریت می‌کنیم که شامل حریم خصوصی، امنیت، محرمانگی است.

لیز گرنان، شریک متخصص مک کینزی در 10 اصل هوش مصنوعی ما

سازمان ها نباید از ابتدا بسازند. روشی که من به آن فکر می‌کنم حول محور «راه‌های قطار» است که سازمان‌ها برای مدیریت، به‌عنوان مثال، حریم خصوصی، امنیت و حاکمیت داده‌های اولیه ساخته‌اند. منظور من از ریل قطار، افراد، فرآیندها و فناوری است که در سرتاسر سازمان برای مدیریت ریسک قرار دارند. آنها باید کنترل‌های ریسک هوش مصنوعی خود را در این مسیرها بارگذاری کنند و افراد خود را برای مدیریت آن ارتقا دهند.

و از آنجایی که فناوری ها به سرعت در حال تغییر هستند، خود کنترل های ریسک باید به طور مداوم به روز شوند. بنابراین، فروشندگان بهترین‌هایی را که دارند به بازار می‌آورند – با نظارت و حلقه‌های بازخورد داخلی – و می‌دانند که به سرعت در حال تغییر است. شرکت‌ها از روش‌های چابک استفاده می‌کنند، نه فقط برای تریاژ سریع، بلکه برای تکرار کنترل‌های ریسک و پاسخگویی با تغییر دامنه و ویژگی‌ها. کنترل‌های ریسک باید مانند تیم‌هایی که آن‌ها را اعمال می‌کنند، ادامه پیدا کنند.

مک کینزی اخیراً 10 اصل هوش مصنوعی مسئول را منتشر کرده است. چگونه در این فضا به مشتریان خدمات رسانی می کنیم؟

لیز: بله، به‌عنوان یک رهبر، می‌خواهیم با مشتریان خود روشن کنیم که هوش مصنوعی و نظارت بر داده‌ها را بسیار جدی می‌گیریم. ما مبتنی بر ارزش‌ها هستیم و این شامل نحوه برخورد ما با داده‌ها نیز می‌شود، بنابراین در عمل می‌گوییم: «ما به خوبی از داده‌های شما مراقبت می‌کنیم و آن‌ها را از منظر ریسک مدیریت می‌کنیم که شامل حریم خصوصی، امنیت، محرمانه‌بودن است». ما همچنین می‌خواهیم این اصول را به‌عنوان راهنمایی برای کمک به تعیین استانداردهایی برای حفاظت از جامعه، با جهان به اشتراک بگذاریم.

به نوبه خود، ما به مشتریان خود کمک می کنیم تا رویکردهای خود را برای استفاده مسئولانه از هوش مصنوعی و داده توسعه دهند. ما محیط هایی را برای مدیریت ریسک چابک جدید طراحی می کنیم. و ما به توابع کنترلی توصیه می کنیم که «به چپ جابجا شوند» یا آزمایش و ارزیابی عملکرد را زودتر در فرآیند انجام دهند و در عین حال کارآمد باقی بمانند. هر مشتری در مرحله متفاوتی از این سفر است، بنابراین ما رویکردهای خود را متناسب با جایی که هستند، تنظیم می‌کنیم و همیشه با اهداف استراتژیک یک کسب‌وکار و ایجاد ارزش نقشه‌برداری می‌کنیم.

برایس: برای تکیه بر نظر لیز، توانایی ما برای کمک به مشتریان برای توسعه رویکردهای خود برای اجرای هوش مصنوعی مسئول، برای ما متمایزکننده است.

برای مثال، دو سال پیش، همه می‌گفتند که توضیح‌پذیری ضروری است. اکنون، ما متوجه شدیم که همیشه در سطح دقیق با مدل‌های پایه امکان‌پذیر نیست. آنچه ممکن است تمرکز بر کیفیت است: کیفیت ورودی ها و دقت و عادلانه بودن خروجی ها.

سازمان‌ها باید چه تغییراتی را در مدیریت ریسک هوش مصنوعی طی شش ماه آینده پیش‌بینی کنند؟

لیز: ما شاهد گام هایی در جهت رسمی شدن برخی استانداردهای جهانی خواهیم بود. کاخ سفید در حال حاضر اقدامات اختیاری نظارت بر هوش مصنوعی برای ایمنی، امنیت و اعتماد دارد که از مردم می‌خواهند در آن مشترک شوند.

قانون هوش مصنوعی اتحادیه اروپا ممکن است تا اوایل سال 2025 اجرایی شود و باعث ایجاد طیف وسیعی از برنامه های انطباق شود که پس از آن توسط قانون الزامی خواهد شد. عقلانی در جهت گیری پیرامون آنچه در آنجا می آید وجود دارد – شبیه به سفر GDPR – که واقعاً برنامه های حفظ حریم خصوصی را در سراسر جهان ایجاد کرد.

در طول سال آینده، من فکر می کنم ارزش اجتماعی و سازمانی هوش مصنوعی افزایش خواهد یافت. در واقع، در تحقیقات مرتبط در ایالات متحده، متوجه شدیم که مصرف کنندگان اکنون جنبه اعتماد یک محصول و خدمات را تقریباً به اندازه قیمت و زمان تحویل مهم در نظر می گیرند. این برای من شگفت‌انگیز بود، با پیامدهای مهم.

صحنه بسیار شلوغ خواهد بود از هر دو فضیلت و رذیلت. یکی از گرایش‌های فناوری سال آینده می‌تواند استفاده از هوش مصنوعی برای مبارزه با آسیب‌های هوش مصنوعی باشد، زیرا ما نمی‌توانیم این مشکل را با روش‌های سنتی حل کنیم. ممکن است برای مقابله با این اثرات نامطلوب، به قدرت، اندازه و مقیاس هوش مصنوعی نیاز باشد.

اشتراک ‌گذاری

نظرات خود را اضافه کنید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *