31 آگوست 2023 در هشت ماه گذشته، رشد قابلیتهای هوش مصنوعی مولد خیرهکننده بوده و هوش مصنوعی را از حوزه تیمهای فناوری به صدر برنامههای مدیران اجرایی ارتقا داده است. بیش از دو سوم از شرکت ها انتظار دارند سرمایه گذاری هوش مصنوعی خود را طی سه سال آینده افزایش دهند.
اما مانند هر پیشرفت مهم تکنولوژیکی، هوش مصنوعی مولد خطرات جدیدی را به همراه دارد و همچنین میتواند خطرات موجود را تشدید کند. در جدیدترین تحقیق ما، وضعیت هوش مصنوعی در سال 2023: سال انتشار هوش مصنوعی مولد، تنها 32 درصد از پاسخ دهندگان می گویند که اقداماتی را برای جلوگیری از عدم دقت انجام می دهند، در حالی که 38 درصد نسبت به 51 درصد در سال گذشته، خطرات امنیت سایبری را مدیریت می کنند.
برای کسب اطلاعات بیشتر، با لیز گرنان، یک شریک متخصص متخصص که کار ما را در زمینه اعتماد دیجیتال در سراسر جهان رهبری می کند، و برایس هال، شریک وابسته و یکی از نویسندگان گزارش، صحبت کردیم.
رشد انفجاری ابزارهای مولد هوش مصنوعی به وضوح سرفصل این نظرسنجی بود. چه چیز دیگری می بینیم؟
برایس: کسبوکارها تشخیص میدهند که ابزارهای هوش مصنوعی مولد جدیدتر از آستانه «شیء جدید براق» تا نشان دادن قابلیت تجاری و ایجاد ارزش در حوزههای مختلف کسبوکار عبور کردهاند.
قسمت دوم داستان این است که شناخت گسترده ای وجود دارد – و نگرانی شدید – در مورد خطرات. بسیاری از آنها قبلاً با انواع سنتی هوش مصنوعی وجود داشتند – حریم خصوصی، برابری، ضد تعصب و توضیح پذیری. اما اکنون آگاهی از خطرات دیگری که به ویژه با ابزارهای هوش مصنوعی مولد برجسته هستند افزایش یافته است: دقت، حفاظت از IP و اسناد، امنیت سایبری و موارد دیگر.
یکی از رنگارنگترین تشبیههایی که درباره هوش مصنوعی مولد شنیدم این بود: «ما به تازگی پارک ژوراسیک را افتتاح کردهایم، اما هنوز نردههای الکتریکی را نصب نکردهایم.»
چشم انداز مدیریت ریسک هوش مصنوعی چگونه تغییر کرده است؟
لیز: به قول برایس، با سرعت و پیشرفت تکنولوژی، ما حتی نمی دانیم چه نوع حصار برقی را در جای خود قرار دهیم.
یکی از چیزهای سخت افزایش و مقیاس و سرعت استفاده مخرب است. یکی از شرکای شرکت حقوقی شرایطی را که در آن شرکتها مدیریت ریسک را به تعویق انداختهاند – چه به دلیل پیچیدگی، به تعویق انداختن، یا عدم نیاز درک شده، توصیف میکند: «اشکهای زیادی وجود خواهد داشت».
آنچه اکنون متفاوت است این است که ما شاهد مطالعات موردی زیادی در مورد آسیب به شهرت، فرسایش مشتری و فرسایش ارزش بازار، همراه با افزایش جریمه ها و بررسی های نظارتی هستیم.
یکی از بزرگترین تغییرات در چند سال گذشته مفهوم مسئولیت شخصی مدیران ارشد و اعضای هیئت مدیره در قبال نارسایی های نظارتی است. رهبران باید درک خوبی از نوآوری در حال راه اندازی در سازمان خود داشته باشند، به خصوص اگر خروجی آن بر مشتریانشان تأثیر بگذارد.
شرکت ها چگونه به این چالش های فزاینده واکنش نشان داده اند؟
برایس: دیدهایم که برخی از سازمانها کمی رویکرد «سر در شن» را اتخاذ کردهاند، بهعنوان مثال، با ممنوع کردن استفاده از هوش مصنوعی مولد در سازمانهای خود.
برخی دیگر نگرش منتظر ماندن را در پیش گرفته اند، تماشا می کنند که برخی مرزها را کشف می کنند، می بینند که چگونه این کار انجام می شود، و سپس یک استراتژی دنبال کردن سریع را اتخاذ می کنند.
شرکت های پیشرو در حال انجام چند کار هستند. به طور معمول، در توسعه یک راهحل هوش مصنوعی، ما یک غلاف خواهیم داشت که شامل دانشمندان داده، مهندسان داده، طراحان UX/UI و رهبران تجاری میشود. اما در حال حاضر کارشناسان حقوقی و ریسک سایبری نیز در ابتدا در حال بررسی هستند.
دوم، در شرکتهای پیشرو که هوش مصنوعی مولد را اتخاذ میکنند، افسران ارشد ریسک نقش مهمتری در C-suite بازی میکنند.
سومین مورد، یک رویکرد شفاف و ساختاریافته برای توسعه و سپس عرضه برنامههای کاربردی جدید برای کاربران بتا یا «تیمهای قرمز» است تا واقعاً نردههای محافظ را آزمایش کرده و مشخص کنیم که در کجا پارامترهای قوی باید در محل قرار گیرند.
چه بهترین شیوه ها را از رهبران می بینیم؟
لیز: چیزی که رهبران را متمایز می کند این است که هوش مصنوعی برخلاف تجارت قدیمی آنها به عنوان یک صحبت یکباره تلقی نمی شود. این در هسته هر کاری است که آنها انجام می دهند، و بنابراین شما نیاز به مدیریت ریسک و کنترل هایی دارید که در هر جنبه ای تعبیه شده باشد. باید بنیادی باشد.
ما دادههای شما را به خوبی مدیریت میکنیم و آنها را از منظر ریسک مدیریت میکنیم که شامل حریم خصوصی، امنیت، محرمانگی است.
لیز گرنان، شریک متخصص مک کینزی در 10 اصل هوش مصنوعی ما
سازمان ها نباید از ابتدا بسازند. روشی که من به آن فکر میکنم حول محور «راههای قطار» است که سازمانها برای مدیریت، بهعنوان مثال، حریم خصوصی، امنیت و حاکمیت دادههای اولیه ساختهاند. منظور من از ریل قطار، افراد، فرآیندها و فناوری است که در سرتاسر سازمان برای مدیریت ریسک قرار دارند. آنها باید کنترلهای ریسک هوش مصنوعی خود را در این مسیرها بارگذاری کنند و افراد خود را برای مدیریت آن ارتقا دهند.
و از آنجایی که فناوری ها به سرعت در حال تغییر هستند، خود کنترل های ریسک باید به طور مداوم به روز شوند. بنابراین، فروشندگان بهترینهایی را که دارند به بازار میآورند – با نظارت و حلقههای بازخورد داخلی – و میدانند که به سرعت در حال تغییر است. شرکتها از روشهای چابک استفاده میکنند، نه فقط برای تریاژ سریع، بلکه برای تکرار کنترلهای ریسک و پاسخگویی با تغییر دامنه و ویژگیها. کنترلهای ریسک باید مانند تیمهایی که آنها را اعمال میکنند، ادامه پیدا کنند.
مک کینزی اخیراً 10 اصل هوش مصنوعی مسئول را منتشر کرده است. چگونه در این فضا به مشتریان خدمات رسانی می کنیم؟
لیز: بله، بهعنوان یک رهبر، میخواهیم با مشتریان خود روشن کنیم که هوش مصنوعی و نظارت بر دادهها را بسیار جدی میگیریم. ما مبتنی بر ارزشها هستیم و این شامل نحوه برخورد ما با دادهها نیز میشود، بنابراین در عمل میگوییم: «ما به خوبی از دادههای شما مراقبت میکنیم و آنها را از منظر ریسک مدیریت میکنیم که شامل حریم خصوصی، امنیت، محرمانهبودن است». ما همچنین میخواهیم این اصول را بهعنوان راهنمایی برای کمک به تعیین استانداردهایی برای حفاظت از جامعه، با جهان به اشتراک بگذاریم.
به نوبه خود، ما به مشتریان خود کمک می کنیم تا رویکردهای خود را برای استفاده مسئولانه از هوش مصنوعی و داده توسعه دهند. ما محیط هایی را برای مدیریت ریسک چابک جدید طراحی می کنیم. و ما به توابع کنترلی توصیه می کنیم که «به چپ جابجا شوند» یا آزمایش و ارزیابی عملکرد را زودتر در فرآیند انجام دهند و در عین حال کارآمد باقی بمانند. هر مشتری در مرحله متفاوتی از این سفر است، بنابراین ما رویکردهای خود را متناسب با جایی که هستند، تنظیم میکنیم و همیشه با اهداف استراتژیک یک کسبوکار و ایجاد ارزش نقشهبرداری میکنیم.
برایس: برای تکیه بر نظر لیز، توانایی ما برای کمک به مشتریان برای توسعه رویکردهای خود برای اجرای هوش مصنوعی مسئول، برای ما متمایزکننده است.
برای مثال، دو سال پیش، همه میگفتند که توضیحپذیری ضروری است. اکنون، ما متوجه شدیم که همیشه در سطح دقیق با مدلهای پایه امکانپذیر نیست. آنچه ممکن است تمرکز بر کیفیت است: کیفیت ورودی ها و دقت و عادلانه بودن خروجی ها.
سازمانها باید چه تغییراتی را در مدیریت ریسک هوش مصنوعی طی شش ماه آینده پیشبینی کنند؟
لیز: ما شاهد گام هایی در جهت رسمی شدن برخی استانداردهای جهانی خواهیم بود. کاخ سفید در حال حاضر اقدامات اختیاری نظارت بر هوش مصنوعی برای ایمنی، امنیت و اعتماد دارد که از مردم میخواهند در آن مشترک شوند.
قانون هوش مصنوعی اتحادیه اروپا ممکن است تا اوایل سال 2025 اجرایی شود و باعث ایجاد طیف وسیعی از برنامه های انطباق شود که پس از آن توسط قانون الزامی خواهد شد. عقلانی در جهت گیری پیرامون آنچه در آنجا می آید وجود دارد – شبیه به سفر GDPR – که واقعاً برنامه های حفظ حریم خصوصی را در سراسر جهان ایجاد کرد.
در طول سال آینده، من فکر می کنم ارزش اجتماعی و سازمانی هوش مصنوعی افزایش خواهد یافت. در واقع، در تحقیقات مرتبط در ایالات متحده، متوجه شدیم که مصرف کنندگان اکنون جنبه اعتماد یک محصول و خدمات را تقریباً به اندازه قیمت و زمان تحویل مهم در نظر می گیرند. این برای من شگفتانگیز بود، با پیامدهای مهم.
صحنه بسیار شلوغ خواهد بود از هر دو فضیلت و رذیلت. یکی از گرایشهای فناوری سال آینده میتواند استفاده از هوش مصنوعی برای مبارزه با آسیبهای هوش مصنوعی باشد، زیرا ما نمیتوانیم این مشکل را با روشهای سنتی حل کنیم. ممکن است برای مقابله با این اثرات نامطلوب، به قدرت، اندازه و مقیاس هوش مصنوعی نیاز باشد.