فناوری هوش مصنوعی به بخش جداییناپذیری از زندگی روزمره انسانها تبدیل شده و در حوزههای مختلف رسوخ کرده است. بخش خیریه و ارتباطات درونی آن نیز از جمله حوزههایی است که تحت تأثیر هوش مصنوعی در آستانه تحول و دگرگونی است. اما هوش مصنوعی چطور توانسته زمینه تحول در دنیای ارتباطات خیریه را فراهم کند؟
این پرسش اخیراً در یک همایش اینترنتی با عنوان «استفاده از هوش مصنوعی در ارتباطات خیریه» مورد تبادل نظر کارشناسان مختلف از جمله «جِد چاپمن» (Jed Chapman) مدیر مؤسسه امپاور (Empower) قرار گرفت.
هوش مصنوعی، طیف گستردهای از ابزارها و قابلیتهای مختلف برای کمک به تجزیه و تحلیل دادهها، خودکارسازی فرآیندها، تولید محتوا و شخصیسازی بیشتر تجربیات را در اختیار متخصصان بازاریابی و ارتباطات خیریه قرار میدهد. اما در عین حال ملاحظات جدی اخلاقی و خطرات و آسیبهای احتمالی نیز در این رابطه وجود دارد که باید تحت بررسی قرار گیرد.
برای مطالعه:
در خلال همایش مذکور که به همت مؤسسه «CharityComms» انگلیس برگزار شد، انواع مختلف هوش مصنوعی و نحوه استفاده خیریهها از آن برای تقویت ارتباطات، چگونگی کمک هوش مصنوعی به تولید محتوا و برخی ابهامات اخلاقی و خطرات استفاده از هوش مصنوعی مورد کنکاش قرار گرفت. هدف از برگزاری این رویداد، تولید ایدههای جدید و کسب دانش برای کمک به خیریهها جهت پیادهسازی یا استفاده بهتر از هوش مصنوعی در ارتباطاتشان بود.
در یکی از وبینارها با عنوان "نقش هوش مصنوعی در ارتباطات خیریه" با حضور کارکنان خیریه و کارشناسان همکار خیریهها، تجربیات استفاده از هوش مصنوعی در ارتباطات، فواید و خطرات آن و سایر معضلات اخلاقی مورد بحث قرار گرفت.
هوش مصنوعی در ارتباطات خیریه
عدیله وارلی (Adeela Warley)
ما به عنوان کارشناس ارتباطات قبل از بکارگیری ابزاری چون «چت جیپیتی» (ChatGPT) چه سؤالاتی باید از خود بپرسیم؟
خبر دارم که مؤسسه «امپاور» در حال حاضر تحقیقات زیادی را در مورد نحوه استفاده از هوش مصنوعی در آینده انجام میدهد. بنابراین اگر امکان دارد کمی در خصوص چارچوبی که در حال ساخت آن بودهاید توضیح دهید و اینکه چرا و چطور آن را توسعه میدهید؟
هر خیریه باید یک چارچوب اخلاق هوش مصنوعی داشته باشد!
جِد چاپمن
متشکرم عدیله. به نظر من برخی نکات که ایرینا (Irina) به آنها اشاره کرد، به درستی حق مطلب را ادا میکند و عملاً نشان میدهد که این مسائل چقدر پیچیده، درهمتنیده و به هممرتبط هستند. فکر میکنم وقتی شروع به بررسی طرحهای هوش مصنوعی مولد کردیم، نیاز به یک رویکرد بسیار دقیق و سنجیده در این رابطه احساس شد، چرا که مسائل بسیار متعددی وجود دارد که به مرور زمان افزایش مییابد...هرچه عمیقتر به دنبال این موضوعات بروید، متوجه پیچیدگی بیشتر آن میشوید.
هنگام بررسی این پدیده باید تصمیم میگرفتیم که آیا اصلاً میتوانیم با ابزارهای هوش مصنوعی مولد کار کنیم یا خیر، سپس به این نتیجه رسیدیم که عملاً به یک رویکرد آهسته، دقیق و سنجیده نیاز داریم.
ما تلاش کردیم چارچوب داخلی خود را در «امپاور» ایجاد کنیم تا بتوانیم از آن به عنوان الگویی برای سنجش ابزارهای جدید و فرآیندهای مورد بررسی استفاده کنیم. این کار به چند روش انجام شده است.
ابتدا یک کارگروه داخلی از اعضای مختلف مؤسسه با سوابق و پیشینههای مختلف راهاندازی شد. مشاوران، اعضای تیم داخلی، رهبران خلاق، ویراستان ویدیو و طراحان گرافیک با دیدگاههای متفاوت در مورد هوش مصنوعی نیز در این رابطه همکاری میکنند. به عنوان نقطه شروع، افرادی با دیدگاههای مثبت و منفی در رابطه با هوش مصنوعی به موازات ارزشهای محوری و بنیادی امپاور گردهم آمدند تا ابزارها را بررسی و با یکدیگر قیاس کنند تا بتوان چارچوبی در این زمینه ایجاد کرد.
چارچوب اخلاق هوش مصنوعی
ما درباره چارچوبهای کنونی که قبلاً مورد استفاده قرار گرفتهاند، مطالعات زیادی انجام دادیم. نام تعدادی از این چارچوبها که کار خود را با آنها آغاز کردیم و شکلدهنده برخی تفکرات ما هستند را در اینجا ذکر میکنم.
1. مؤسسه "دیجیتال کاتاپولت" (Digital Catapult)
مؤسسه «دیجیتال کاتاپولت» (Digital Catapult) صاحب یک چارچوب اخلاق هوش مصنوعی است که در درجه نخست بیشتر مناسب توسعهدهندگان است. اما تصور میکنم سؤالات موجود در این چارچوب بسیار مفید بوده و برای هر سازمانی که به دنبال استفاده داخلی از یک ابزار هوش مصنوعی مولد است، مناسب به نظر میرسد.
2. مؤسسه "روابط عمومی چارترد" (Chartered Institute of Public Relations)
چارچوب دیگر به مؤسسه "روابط عمومی چارترد" (Chartered Institute of Public Relations) تعلق دارد که راهنمای اخلاقی هوش مصنوعی و روابط عمومی (AI and PR) را در سال 2020 منتشر کرده است. به لحاظ فنی با توجه به سرعت تغییرات هوش مصنوعی، این راهنما تا حدی منسوخ شده است. اما تصور میکنیم که برخی از سوالات مطرح در این چارچوب نیز دقیقاً به ملاحظاتی اشاره دارد که سازمانها باید مورد توجه قرار دهند.
3. مؤسسه "چریتی اکسلنس فریمورک" (Charity Excellence Framework)
چارچوب سوم با عنوان «چارچوب اخلاق و حاکمیت هوش مصنوعی برای خیریهها» توسط مؤسسه چریتی اکسلنس فریمورک (Charity Excellence Framework) منتشر شده است. این چارچوب به تجزیه و تحلیل ارزیابی ریسک در سه دوره کوتاه، میان و بلندمدت به ویژه برای خیریهها میپردازد و همچنین باقی بخشهای چارچوب حاکمیت را با جزئیات زیادی تجزیه و تحلیل میکند که میتواند نقطه شروع خوبی باشد.
این بخشی از کارهایی است که انجام میدهیم تا ببینیم چطور میتوانیم چارچوب خودمان را بسازیم و قبل از استفاده از ابزارها (توسط خود یا همکاری با مشتریان و توصیه ابزارها به آنها) کارهایمان را مطابق این چارچوب ارزیابی کنیم.
هوش مصنوعی قانونمند
وقتی صحبت از خود ابزارها میشود، وضعیت به شکل نسبتاً پیچیده و مبهم درمیآید. تصویرسازی در این رابطه بسیار دشوار است. نه فقط به دلایلی که ایرینا اشاره کرد، بلکه مشخصاً پروندههای حقوقی زیادی در ارتباط با مباحث بسیار پیچیده کپیرایت وجود دارد که شاید حل هر یک از آنها سالها طول بکشد. من در واقع قصد داشتم درباره ابزار هوش مصنوعی کلود (Claude) محصول شرکت آنتروپیک (Anthropic) و ایده هوش مصنوعی قانونمند صحبت کنم، اما احتمالاً فکر میکنم فیل (Phil) این مباحث را بهتر توضیح داده است.
مطمئن نیستم که وقت کافی برای پرداختن به یادگیری تقویتی از طریق بازخورد انسانی در برابر یک مدل هوش مصنوعی قانونمند در اختیارمان باشد، اما واقعاً به آن علاقهمند هستیم.
خروجیهای کلود از تبعیض و جانبداری نسبتاً کمتری برخوردار بوده و به علاوه برای کاربر مفید است. البته فکر نمیکنم آن بتواند کل مسائل و مشکلات را برطرف کند، اما امیدواریم گامی در جهت درست باشد. بنابراین کاملاً به این قضیه خوشبین هستیم.
تلاش ما نه به عنوان کارشناس هوش مصنوعی، توسعهدهنده یا کارشناس حقوقی این است که واقعاً درک درستی از نحوه کار آن داشته باشیم. سؤال اینجاست که چه دادههایی برای آموزش این ابزار استفاده شده و آیا خروجیهای آن با ارزشهای درونی ما و سازمانهای همکارمان همخوانی دارد یا خیر؟
تفویض مسئولیت اخلاقی
به نظرم درک این نکته بسیار مهم است که ریسک شهرت (reputational risk) احتمالاً متوجه افرادی است که از هوش مصنوعی استفاده میکنند، نه سازمانهایی که این ابزارها را پدید میآورند.
ریسک شهرت یا "reputational risk" به وضعیتی اطلاق میشود که یک سازمان ممکن است با دیدگاه منفی یا افت شهرت مواجه شود که میتواند به تضرر مالی، از دست دادن اعتماد مشتریان یا مشکلات دیگر منجر شود.
این خطر ممکن است ناشی از عملکرد ناقص یا نادرست، اختلافات، رفتار غیراخلاقی، خسارات محیط زیستی، نقض قوانین، یا موارد دیگر باشد.مدیریت این خطرات برای سازمانها بسیار حیاتی است تا از آسیبهای جدی به شهرت و موفقیت آتی آنها جلوگیری شود.
در حال حاضر نوعی تفویض مسئولیت اخلاقی در حال وقوع است و از آنجا که این ابزار ذاتاً مولد است، چطور میتوان یک سازمان را برای خروجیهایی که تولید میکند، مسئول تلقی کرد؟
این ریسک را میتوان به سادگی تمام متوجه افرادی دانست که از آن به ویژه در دسترسیهای عمومی استفاده میکنند. بنابراین تلاش میکنیم که همه جوانب امر را همزمان بسنجیم و امیدواریم که در آینده به پیشرفتهایی در این خصوص دست پیدا کنیم.
گزارش دغدغههای هوش مصنوعی
نظرسنجی از کارشناسان ارتباطات درباره نگرشها و احساسات آنها نسبت به هوش مصنوعی
عدیله
متشکرم جِد. خبر دارم که شما به تازگی نگرشها و احساسات کارشناسان ارتباطات درباره هوش مصنوعی را در یک نظرسنجی جویا شدهاند. بنابراین اگر امکان دارد به طور خلاصه برخی از سرفصلها و موضوعاتی که از بازخورد آنها دریافت کردهاید را با ما در میان بگذارید.
جد چاپمن
ما طی چند ماه گذشته از افراد خلاق در حوزه صنعت، متخصصان و هر فردی که در زمینه طراحی، بازاریابی و ارتباطات، ویرایش ویدیو و غیره فعالیت میکند، نظرسنجی کرده و بیش از 200 پاسخ دریافت کردهایم. نتایج این نظرسنجی صبح امروز منتشر شد و فکر میکنم این گزارش در بستهای پس از رویداد حاضر منتشر خواهد شد. پس لطفاً سری به این گزارش بزنید و آن را مطالعه کنید.
برداشت کلی ما این بود که سطح بالایی از آشنایی با مفهوم هوش مصنوعی مولد در بین متخصصان این بخش وجود دارد. به علاوه متوجه شدیم که خیلی از افراد در حال حاضر مشغول آزمایش طرحهای هوش مصنوعی مولد هستند.
یافتهها نشان داد که:
دو سوم از پاسخدهندگان از هوش مصنوعی در جایگاه فردی و 40 درصد در جایگاه حرفهای استفاده کردهاند.
اکنون فرض ما این است که هوش مصنوعی هنوز در سطح سازمانی نیست، اما بیشتر افراد شاید با تأیید سازمان مربوطه در حال آزمایش و استفاده از آن در کار خود هستند.
طبق مطالعات موجود که به نظرم یکی از آنها مربوط به تحقیق یک ماه قبل «فیل» است، از سازمانها پرسیده شد که تا چه حد در استراتژیهای هوش مصنوعی پیشروی کردهاند و نتایج از مراحل بسیار ابتدایی حکایت داشت. بنابراین فرض بر این است که عمدتاً افراد متخصص به صورت پنهانی در محل کار یا با تأیید مافوق خود در حال استفاده از هوش مصنوعی هستند.
در خصوص نگرانیها پیرامون تأثیر هوش مصنوعی بر مشاغل نیز مشاهده شد که حدود 50 درصد از پاسخدهندگان در مجموع سطحی از نگرانی درباره تأثیر این پدیده بر صنعت شغلی را بروز دادهاند. همچنین برخی افراد نیز به دلایلی که قبلاً درباره آن صحبت کردیم و پیامدهای اخلاقی هوش مصنوعی، صراحتاً مخالف این فناوری بودند.
در مقابل نگرانی نسبتاً کمتری درباره احتمال جایگزینی فرآیند خلاقیت انسانی با پدیدههای دیگر وجود داشت. وقتی این پرسپش مطرح شد که آیا شما نگران این هستید که خلاقیت انسانی (به واسطه هوش مصنوعی) در معرض تهدید قرار گیرد، نگرانیها به طور قابل توجهی کاهش یافت. این احساس وجود داشت که هیچ چیز جایگزین فرآیند خلاقیت نمیشود، بلکه آن در حال تکامل است و ما عملاً حس خوشبینی و کنجکاوی محتاطانه نسبت به کار با این ابزار در آینده را دریافت کردیم.
80 درصد از پاسخدهندگان گفتند که:
قصد دارند در آینده از طرحهای هوش مصنوعی مولد در کار خود استفاده کنند و به طور مشابه اکثر پاسخدهندگان تصور میکردند که شناخت و آشنایی با این ابزار برای مبتکران در هر سطحی بسیار مهم است.
اهمیت و ضرورت استفاده مسئولانه از هوش مصنوعی (AI)
در جمعبندی بحث، همانطور که ایرینا گفت ما در «غرب وحشی» زندگی میکنیم. قوانین و مقررات عقبماندگی بسیار زیادی دارد. نتایج این گزارش بر اهمیت و ضرورت استفاده مسئولانه از این ابزارها تأکید دارد؛ در این مسیر باید مراقب باشیم، دقت کنیم و با احتیاط از هوش مصنوعی استفاده کنیم. همچنین لازم است گفتگوهای آزاد به بهترین شکل ممکن ادامه پیدا کند.
این اطمینان را ایجاد کنید که منابع و آموزش در دسترس همگان قرار میگیرد تا حد امکان بتوانیم با این ابزارها و پیامدهای آنها آشنا شویم. همچنین زمانی که شروع به استفاده از این فرصتها میکنید، همیشه زوایای اخلاقی آن را در نظر داشته باشید.
دیدگاه خود را بنویسید