فناوری هوش مصنوعی به بخش جدایی‌ناپذیری از زندگی روزمره انسان‌ها تبدیل شده و در حوزه‌های مختلف رسوخ کرده است. بخش خیریه و ارتباطات درونی آن نیز از جمله حوزه‌هایی است که تحت تأثیر هوش مصنوعی در آستانه تحول و دگرگونی است. اما هوش مصنوعی چطور توانسته زمینه تحول در دنیای ارتباطات خیریه را فراهم کند؟

این پرسش اخیراً در یک همایش اینترنتی با عنوان «استفاده از هوش مصنوعی در ارتباطات خیریه» مورد تبادل نظر کارشناسان مختلف از جمله «جِد چاپمن» (Jed Chapman) مدیر مؤسسه امپاور (Empower) قرار گرفت. 

هوش مصنوعی، طیف گسترده‌ای از ابزارها و قابلیت‌های مختلف برای کمک به تجزیه و تحلیل داده‌ها، خودکارسازی فرآیندها، تولید محتوا و شخصی‌سازی بیشتر تجربیات را در اختیار متخصصان بازاریابی و ارتباطات خیریه قرار می‌دهد. اما در عین حال ملاحظات جدی اخلاقی و خطرات و آسیب‌های احتمالی نیز در این رابطه وجود دارد که باید تحت بررسی قرار گیرد.

برای مطالعه:

چارچوب اخلاق و حاکمیت هوش مصنوعی در بخش خیریه

در خلال همایش مذکور که به همت مؤسسه «CharityComms» انگلیس برگزار شد، انواع مختلف هوش مصنوعی و نحوه استفاده خیریه‌ها از آن برای تقویت ارتباطات، چگونگی کمک هوش مصنوعی به تولید محتوا و برخی ابهامات اخلاقی و خطرات استفاده از هوش مصنوعی مورد کنکاش قرار گرفت. هدف از برگزاری این رویداد، تولید ایده‌های جدید و کسب دانش برای کمک به خیریه‌ها جهت پیاده‌سازی یا استفاده بهتر از هوش مصنوعی در ارتباطات‌شان بود.

در یکی از وبینارها با عنوان "نقش هوش مصنوعی در ارتباطات خیریه" با حضور کارکنان خیریه و کارشناسان همکار خیریه‌ها، تجربیات استفاده از هوش مصنوعی در ارتباطات، فواید و خطرات آن و سایر معضلات اخلاقی مورد بحث قرار گرفت.

 هوش مصنوعی در ارتباطات خیریه

هوش مصنوعی در ارتباطات خیریه

عدیله وارلی (Adeela Warley)

ما به عنوان کارشناس ارتباطات قبل از بکارگیری ابزاری چون «چت جی‌پی‌تی» (ChatGPT) چه سؤالاتی باید از خود بپرسیم؟

خبر دارم که مؤسسه «امپاور» در حال حاضر تحقیقات زیادی را در مورد نحوه استفاده از هوش مصنوعی در آینده انجام می‌دهد. بنابراین اگر امکان دارد کمی در خصوص چارچوبی که در حال ساخت آن بوده‌اید توضیح دهید و اینکه چرا و چطور آن را توسعه می‌دهید؟

هر خیریه باید یک چارچوب اخلاق هوش مصنوعی داشته باشد!

جِد چاپمن

متشکرم عدیله. به نظر من برخی نکات که ایرینا (Irina) به آنها اشاره کرد، به درستی حق مطلب را ادا می‌کند و عملاً نشان می‌دهد که این مسائل چقدر پیچیده، درهم‌تنیده و به هم‌مرتبط هستند. فکر می‌کنم وقتی شروع به بررسی طرح‌های هوش مصنوعی مولد کردیم، نیاز به یک رویکرد بسیار دقیق و سنجیده در این رابطه احساس شد، چرا که مسائل بسیار متعددی وجود دارد که به مرور زمان افزایش می‌یابد...هرچه عمیق‌تر به دنبال این موضوعات بروید، متوجه پیچیدگی بیشتر آن می‌شوید.

هنگام بررسی این پدیده باید تصمیم می‌گرفتیم که آیا اصلاً می‌توانیم با ابزارهای هوش مصنوعی مولد کار کنیم یا خیر، سپس به این نتیجه رسیدیم که عملاً به یک رویکرد آهسته، دقیق و سنجیده نیاز داریم.

ما تلاش کردیم چارچوب داخلی خود را در «امپاور» ایجاد کنیم تا بتوانیم از آن به عنوان الگویی برای سنجش ابزارهای جدید و فرآیندهای مورد بررسی استفاده کنیم. این کار به چند روش انجام شده است.
ابتدا یک کارگروه داخلی از اعضای مختلف مؤسسه با سوابق و پیشینه‌های مختلف راه‌اندازی شد. مشاوران، اعضای تیم داخلی، رهبران خلاق، ویراستان ویدیو و طراحان گرافیک با دیدگاه‌های متفاوت در مورد هوش مصنوعی نیز در این رابطه همکاری می‌کنند. به عنوان نقطه شروع، افرادی با دیدگاه‌های مثبت و منفی در رابطه با هوش مصنوعی به موازات ارزش‌های محوری و بنیادی امپاور گردهم آمدند تا ابزارها را بررسی و با یکدیگر قیاس کنند تا بتوان چارچوبی در این زمینه ایجاد کرد.
چارچوب اخلاق هوش مصنوعی

چارچوب اخلاق هوش مصنوعی

ما درباره چارچوب‌های کنونی که قبلاً مورد استفاده قرار گرفته‌اند، مطالعات زیادی انجام دادیم. نام تعدادی از این چارچوب‌ها که کار خود را با آنها آغاز کردیم و شکل‌دهنده برخی تفکرات ما هستند را در اینجا ذکر می‌کنم. 

1. مؤسسه "دیجیتال کاتاپولت" (Digital Catapult) 

مؤسسه «دیجیتال کاتاپولت» (Digital Catapult) صاحب یک چارچوب اخلاق هوش مصنوعی است که در درجه نخست بیشتر مناسب توسعه‌دهندگان است. اما تصور می‌کنم سؤالات موجود در این چارچوب بسیار مفید بوده و برای هر سازمانی که به دنبال استفاده داخلی از یک ابزار هوش مصنوعی مولد است، مناسب به نظر می‌رسد.

2. مؤسسه "روابط عمومی چارترد" (Chartered Institute of Public Relations)

چارچوب دیگر به مؤسسه "روابط عمومی چارترد" (Chartered Institute of Public Relations) تعلق دارد که راهنمای اخلاقی هوش مصنوعی و روابط عمومی (AI and PR) را در سال 2020 منتشر کرده است. به لحاظ فنی با توجه به سرعت تغییرات هوش مصنوعی، این راهنما تا حدی منسوخ شده است. اما تصور می‌کنیم که برخی از سوالات مطرح در این چارچوب نیز دقیقاً به ملاحظاتی اشاره دارد که سازمان‌ها باید مورد توجه قرار دهند.

3. مؤسسه "چریتی اکسلنس فریمورک" (Charity Excellence Framework)

چارچوب سوم با عنوان «چارچوب اخلاق و حاکمیت هوش مصنوعی برای خیریه‌ها» توسط مؤسسه چریتی اکسلنس فریمورک (Charity Excellence Framework) منتشر شده است. این چارچوب به تجزیه و تحلیل ارزیابی ریسک در سه دوره کوتاه، میان و بلندمدت به ویژه برای خیریه‌ها می‌پردازد و همچنین باقی بخش‌های چارچوب حاکمیت را با جزئیات زیادی تجزیه و تحلیل می‌کند که می‌تواند نقطه شروع خوبی باشد.

این بخشی از کارهایی است که انجام می‌دهیم تا ببینیم چطور می‌توانیم چارچوب خودمان را بسازیم و قبل از استفاده از ابزارها (توسط خود یا همکاری با مشتریان و توصیه ابزارها به آنها) کارهایمان را مطابق این چارچوب ارزیابی کنیم.

هوش مصنوعی قانون‌مند

وقتی صحبت از خود ابزارها می‌شود، وضعیت به شکل نسبتاً پیچیده و مبهم درمی‌آید. تصویرسازی در این رابطه بسیار دشوار است. نه فقط به دلایلی که ایرینا اشاره کرد، بلکه مشخصاً پرونده‌های حقوقی زیادی در ارتباط با مباحث بسیار پیچیده کپی‌رایت وجود دارد که شاید حل هر یک از آنها سال‌ها طول بکشد. من در واقع قصد داشتم درباره ابزار هوش مصنوعی کلود (Claude) محصول شرکت آنتروپیک (Anthropic) و ایده هوش مصنوعی قانونمند صحبت کنم، اما احتمالاً فکر می‌کنم فیل (Phil) این مباحث را بهتر توضیح داده است.

مطمئن نیستم که وقت کافی برای پرداختن به یادگیری تقویتی از طریق بازخورد انسانی در برابر یک مدل هوش مصنوعی قانونمند در اختیارمان باشد، اما واقعاً به آن علاقه‌مند هستیم.
خروجی‌های‌ کلود از تبعیض و جانبداری نسبتاً کمتری برخوردار بوده و به علاوه برای کاربر مفید است. البته فکر نمی‌کنم آن بتواند کل مسائل و مشکلات را برطرف کند، اما امیدواریم گامی در جهت درست باشد. بنابراین کاملاً به این قضیه خوشبین هستیم.

تلاش ما نه به عنوان کارشناس هوش مصنوعی، توسعه‌دهنده یا کارشناس حقوقی این است که واقعاً درک درستی از نحوه کار آن داشته باشیم. سؤال اینجاست که چه داده‌هایی برای آموزش این ابزار استفاده شده و آیا خروجی‌های آن با ارزش‌های درونی ما و سازمان‌های همکارمان همخوانی دارد یا خیر؟

تفویض مسئولیت اخلاقی

به نظرم درک این نکته بسیار مهم است که ریسک شهرت (reputational risk) احتمالاً متوجه افرادی است که از هوش مصنوعی استفاده می‌کنند، نه سازمان‌هایی که این ابزارها را پدید می‌آورند. 

ریسک شهرت یا "reputational risk" به وضعیتی اطلاق می‌شود که یک سازمان ممکن است با دیدگاه منفی یا افت شهرت مواجه شود که می‌تواند به تضرر مالی، از دست دادن اعتماد مشتریان یا مشکلات دیگر منجر شود.
این خطر ممکن است ناشی از عملکرد ناقص یا نادرست، اختلافات، رفتار غیراخلاقی، خسارات محیط زیستی، نقض قوانین، یا موارد دیگر باشد.

مدیریت این خطرات برای سازمان‌ها بسیار حیاتی است تا از آسیب‌های جدی به شهرت و موفقیت آتی آن‌ها جلوگیری شود.

در حال حاضر نوعی تفویض مسئولیت اخلاقی در حال وقوع است و از آنجا که این ابزار ذاتاً مولد است، چطور می‌توان یک سازمان را برای خروجی‌هایی که تولید می‌کند، مسئول تلقی کرد؟

این ریسک را می‌توان به سادگی تمام متوجه افرادی دانست که از آن به ویژه در دسترسی‌های عمومی استفاده می‌کنند. بنابراین تلاش می‌کنیم که همه جوانب امر را همزمان بسنجیم و امیدواریم که در آینده به پیشرفت‌هایی در این خصوص دست پیدا کنیم.

گزارش دغدغه‌های هوش مصنوعی

نظرسنجی از کارشناسان ارتباطات درباره نگرش‌ها و احساسات آنها نسبت به هوش مصنوعی

عدیله

متشکرم جِد. خبر دارم که شما به تازگی نگرش‌ها و احساسات کارشناسان ارتباطات درباره هوش مصنوعی را در یک نظرسنجی جویا شده‌اند. بنابراین اگر امکان دارد به طور خلاصه برخی از سرفصل‌ها و موضوعاتی که از بازخورد آنها دریافت کرده‌اید را با ما در میان بگذارید.

جد چاپمن

ما طی چند ماه گذشته از افراد خلاق در حوزه صنعت، متخصصان و هر فردی که در زمینه طراحی، بازاریابی و ارتباطات، ویرایش ویدیو و غیره فعالیت می‌کند، نظرسنجی کرده‌ و بیش از 200 پاسخ دریافت کرده‌ایم. نتایج این نظرسنجی‌ صبح امروز منتشر شد و فکر می‌کنم این گزارش در بسته‌ای پس از رویداد حاضر منتشر خواهد شد. پس لطفاً سری به این گزارش بزنید و آن را مطالعه کنید.

برداشت کلی ما این بود که سطح بالایی از آشنایی با مفهوم هوش مصنوعی مولد در بین متخصصان این بخش وجود دارد. به علاوه متوجه شدیم که خیلی از افراد در حال حاضر مشغول آزمایش طرح‌های هوش مصنوعی مولد هستند.

یافته‌ها نشان داد که:

 دو سوم از پاسخ‌دهندگان از هوش مصنوعی در جایگاه فردی و 40 درصد در جایگاه حرفه‌ای استفاده کرده‌اند.

اکنون فرض ما این است که هوش مصنوعی هنوز در سطح سازمانی نیست، اما بیشتر افراد شاید با تأیید سازمان مربوطه‌ در حال آزمایش و استفاده از آن در کار خود هستند.

طبق مطالعات موجود که به نظرم یکی از آنها مربوط به تحقیق یک ماه قبل «فیل» است، از سازمان‌ها پرسیده شد که تا چه حد در استراتژی‌های هوش مصنوعی پیشروی کرده‌اند و نتایج از مراحل بسیار ابتدایی حکایت داشت. بنابراین فرض بر این است که عمدتاً افراد متخصص به صورت پنهانی در محل کار یا با تأیید مافوق‌ خود در حال استفاده از هوش مصنوعی هستند.

در خصوص نگرانی‌ها پیرامون تأثیر هوش مصنوعی بر مشاغل نیز مشاهده شد که حدود 50 درصد از پاسخ‌دهندگان در مجموع سطحی از نگرانی درباره تأثیر این پدیده بر صنعت شغلی را بروز داده‌اند. همچنین برخی افراد نیز به دلایلی که قبلاً درباره آن صحبت کردیم و پیامدهای اخلاقی هوش مصنوعی، صراحتاً مخالف این فناوری بودند.

در مقابل نگرانی نسبتاً کمتری درباره احتمال جایگزینی فرآیند خلاقیت انسانی با پدیده‌های دیگر وجود داشت. وقتی این پرسپش مطرح شد که آیا شما نگران این هستید که خلاقیت انسانی (به واسطه هوش مصنوعی) در معرض تهدید قرار گیرد، نگرانی‌ها به طور قابل توجهی کاهش یافت. این احساس وجود داشت که هیچ چیز جایگزین فرآیند خلاقیت نمی‌شود، بلکه آن در حال تکامل است و ما عملاً حس خوش‌بینی و کنجکاوی محتاطانه نسبت به کار با این ابزار در آینده را دریافت کردیم.

80 درصد از پاسخ‌دهندگان گفتند که:

 قصد دارند در آینده از طرح‌های هوش مصنوعی مولد در کار خود استفاده کنند و به طور مشابه اکثر پاسخ‌دهندگان تصور می‌کردند که شناخت و آشنایی با این ابزار برای مبتکران در هر سطحی بسیار مهم است.

اهمیت و ضرورت استفاده مسئولانه از هوش مصنوعی (AI)

در جمع‌بندی بحث، همانطور که ایرینا گفت ما در «غرب وحشی» زندگی می‌کنیم. قوانین و مقررات عقب‌ماندگی بسیار زیادی دارد. نتایج این گزارش بر اهمیت و ضرورت استفاده مسئولانه از این ابزارها تأکید دارد؛ در این مسیر باید مراقب باشیم، دقت کنیم و با احتیاط از هوش مصنوعی استفاده کنیم. همچنین لازم است گفتگوهای آزاد به بهترین شکل ممکن ادامه پیدا کند.

این اطمینان را ایجاد کنید که منابع و آموزش در دسترس همگان قرار می‌گیرد تا حد امکان بتوانیم با این ابزارها و پیامدهای آنها آشنا شویم. همچنین زمانی که شروع به استفاده از این فرصت‌ها می‌کنید، همیشه زوایای اخلاقی آن را در نظر داشته باشید.

منبع: ترجمه شده از وبسایت empower.agency