فناوری هوش مصنوعی (AI) اخیراً درگیر برخی مسائل حقوقی و اخلاقی شده که معضلاتی را برای حوزه‌های مختلف از جمله بخش خیریه پدید آورده است. انتظار می‌رود رفع این مشکلات سال‌ها به طول انجامد و احتمالاً طی این مدت با گرفتاری‌های مختلفی مواجه خواهیم بود. 

براین اساس دستورالعمل جدیدی در مورد مبانی اخلاقی هوش مصنوعی در بخش خیریه توسط مؤسسه چریتی اکسلنس (Charity Excellence) تدوین شده است. این دستورالعمل با عنوان «چارچوب اخلاق و حاکمیت هوش مصنوعی در بخش خیریه» می‌کوشد با ارائه یک چارچوب ساده، کاربردی و انعطاف‌پذیر برای مدیریت چالش‌های اخلاقی، به ترویج استفاده مسئولانه سازمان‌های مردم‌نهاد از هوش مصنوعی کمک کند.

چارچوب اخلاق و حاکمیت هوش مصنوعی در خیریه‌ها

چارچوب اخلاق و حاکمیت هوش مصنوعی در خیریه‌ها

اصول اخلاق و حاکمیت هوش مصنوعی یک حوزه بسیار پیچیده توأم با رشد و تکامل سریع است و این در شرایطی است که همگی ما در آینده نزدیک مستقیماً درگیر استفاده از هوش مصنوعی خواهیم بود یا اینکه کارهایمان به نوعی تحت تأثیر سیستم‌های مجهز به این فناوری و فرصت‌ها و تهدیدات بزرگ ناشی از آن خواهد بود.

«چریتی اکسلنس» به عنوان بزرگ‌ترین جامعه خیریه انگلیس با تدوین دستورالعمل اخلاقی هوش مصنوعی به خیریه‌ها کمک می‌کند تا به تهدیدات فوق واکنش نشان دهند. 

اهمیت اخلاق و حاکمیت هوش مصنوعی

در تاریخ 23 مارس، گروهی از کارشناسان برجسته هوش مصنوعی جهان خواستار این شدند که توسعه نسل بعدی سیستم‌های قوی‌تر از «ChatGPT4» برای 6 ماه به تعویق بیافتد. این کارشناسان هشدار دادند که:

«شرکت‌های هوش مصنوعی درگیر یک مسابقه خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتر هستند که هیچکس - حتی سازندگان آنها – نمی‌تواند آن را درک، پیش‌بینی یا کنترل کند.»

مشکل اینجاست که این فقط یک مورد از مجموعه مسائل سیستم‌های جدید هوش مصنوعی مولد است؛ سیستم‌هایی که بسیار تحول‌آفرین هستند، غول‌های فناوری میلیاردها پوند در آنها سرمایه‌گذاری می‌کنند و سود بسیار چشمگیری به همراه دارند. اما نگرانی‌های بسیار جدی در این رابطه وجود دارد. حتی مدیرعامل شرکت OpenAI (سازنده ChatGPT) عقیده دارد که توسعه این فناوری باید همگام با توسعه مبانی اخلاقی و حقوقی باشد.

سند مقررات هوش مصنوعی دولت انگلیس، پیشنهادات خود در زمینه پیاده‌سازی چارچوبی برای ساماندهی و نظارت بر هوش مصنوعی را ارائه کرده است. در حال حاضر این سند در شرف مشورت و رایزنی است، اما حدس زده می‌شود که مقررات جدید احتمالاً رویکرد ظریفی برای ترویج رشد اقتصادی خواهد بود.

با این حال هیچ اختلاف‌نظری در رابطه با گستردگی و سرعت تأثیرات هوش مصنوعی یا چالش‌های عظیمی که این پدیده ایجاد می‌کند، وجود ندارد. خیریه‌ها باید همین الان دست به اقداماتی بزنند تا مطمئن شوند که استفاده‌ی آنها از هوش مصنوعی منصفانه، قانونی و ایمن است. «چارچوب اخلاق و حاکمیت هوش مصنوعی» ابزاری را برای انجام این کار در اختیار مؤسسات مردم‌نهاد قرار می‌دهد.

خطرات هوش مصنوعی برای خیریه‌ها

ارزیابی ریسک (risk assessment) جهت کمک به ایجاد چارچوب فوق انجام می‌شود. گمان می‌رود که تعدادی خطر کوتاه‌مدت قبلاً اتفاق افتاده یا در آینده بسیار نزدیک رخ خواهد داد. چند خطر میان‌مدت نیز در راه است که اکنون باید به آنها پاسخ داده شود و البته خوشبختانه چند سال فاصله با خطرات بلندمدتی چون «Paperclip Maximiser» وجود دارد، البته اگر اتفاق بیافتند.

خطرات کوتاه مدت هوش مصنوعی

1. حریم خصوصی (Privacy)

  • تأثیرگذاری بر جهان: تنظیمات پیش‌فرض ChatGPT این است که داده‌ها را به اشتراک بگذارد مگر آنکه اشتراک‌گذاری داده غیرفعال شده باشد، بنابراین هر نوع اطلاعات حساس شخصی یا مالی به طور خودکار به اشتراک گذاشته می‌شود.
  • تأثیرگذاری بر سازمان‌های مردم‌نهاد: مدل‌های زبانی بزرگ (LLM) اقدام به جمع‌آوری داده‌ها از سراسر اینترنت از جمله وب‌سایت‌های خیریه کرده و آپلود محتوا را برای همه قابل دسترسی و استفاده می‌کنند. هرچند این قضیه باعث «کشف و دیده شدن» بیشتر خیریه می‌شود، اما در عین حال ممکن است داده‌ها بدون رضایت‌ آن به اشتراک گذاشته شود و محتوا جهت سوء استفاده‌هایی چون تصاویر کودکان در دسترس قرار گیرد.

2. نشر اطلاعات غلط (Disinformation)

  • تأثیرگذاری بر جهان: توانایی هوش مصنوعی برای نوشتن محتوای بسیار نافذ و قابل باور به بازیگران شرور امکان می‌دهد اطلاعات نادرست و دروغ را نشر دهند. این در حالی است که محافظ‌های ایمنی مصون از خطا نیستند و ممکن است توسط این بازیگران دور زده شوند (پدیده جیلبریک).

برای مطالعه

با روز جهانی ابر انسان آشنا شوید.!

  • تأثیرگذاری بر سازمان‌های مردم‌نهاد: جلب اعتماد عمومی از جمله نکات اساسی برای خیریه‌هایی است که از تصاویر هوش مصنوعی استفاده می‌کنند، اما پنهان‌کاری در این خصوص و به بیان کلی‌ترT نشر اطلاعات نادرست می‌تواند شدیداً به این اعتماد خدشه وارد کند. دستِ کم یک خیریه بزرگ، قبلاً از تصاویر هوش مصنوعی استفاده کرده، بدون آنکه درباره این عمل شفاف‌سازی کرده باشد.

3. چارچوب‌های نظارتی و قانونی (Regulatory Frameworks)

کپی‌رایت (Copyright) از جمله موضوعات بسیار مهم است، اما فناوری غالباً جلوتر از قوانین و مقررات در این زمینه حرکت کرده است. اتحادیه اروپا و آمریکا اقداماتی را در این خصوص انجام داده‌اند. سند دولت انگلیس درباره هوش مصنوعی با نگاهی به رویکرد حامی نوآوری و تمرکز بر ایجاد منافع اقتصادی روز 23 مارس منتشر شد. دفتر کمیساریای اطلاعات انگلیس (ICI) نیز راهنمای به‌روز هوش مصنوعی را در همین روز صادر کرد.

4. تبعیض (Discrimination)

هوش مصنوعی به خودی خود تبعیض‌آمیز نیست، اما از داده‌هایمان استفاده کرده و توسط ما آموزش داده می‌شود، بنابراین بازتابی از کاستی‌ها و نارسایی‌های جامعه است که به احتمال زیاد به این زودی‌ها برطرف نخواهد شد. خطرات چشمگیر تبعیض هم در خود داده‌ها و هم در نحوه آموزش آنها نهفته است. به علاوه از آنجا که بخش عمده هوش مصنوعی شبیه یک «جعبه سیاه» ناشناخته است، حتی افرادی که آن را می‌سازند واقعاً نمی‌دانند چه کار می‌کنند. موارد و نمونه‌هایی از سیاه‌پوستان و زنان وجود دارند که به واسطه هوش مصنوعی مورد تبعیض قرار گرفته‌اند.

5. کلاهبرداری‌ (Scam)

  • تأثیرگذاری بر جهان: شناسایی کلاهبرداران معمولاً بسیار ساده است، اما استفاده از هوش مصنوعی این امر را بسیار پیچیده کرده است. در حال حاضر خطرات «کلاهبرداری از خیریه» وجود دارد که به اعتماد عمومی و تمایل دیگران برای اهدای کمک مالی لطمه وارد می‌کند.
  • تأثیرگذاری بر سازمان‌های مردم‌نهاد: این خطر وجود دارد که ذی‌نفعان آسیب‌پذیر حتی بیش از مقدار فعلی آسیب ببینند و خطرات بزرگ‌تر کلاهبرداری در کمین خیریه‌ها باشد. 

خطرات میان‌مدت مدت هوش مصنوعی - 2024

خطرات میان‌مدت مدت هوش مصنوعی - 2024

1. فرسودگی (Obsolescence)

  • تأثیرگذاری بر جهان: سازمان‌هایی که از واکنش به این فناوری عاجز هستند و همچنان به خدمات یا مدل‌هایی وفادار مانده‌اند که دیگر افراد نیازی به آنها ندارند یا اینکه می‌توانند با استفاده از هوش مصنوعی به طور رایگان، مؤثرتر یا راحت‌تر به این خدمات دسترسی پیدا کنند. قطعاً این سازمان‌ها بازنده هستند.
  • تأثیرگذاری بر سازمان‌های مردم‌نهاد: ابعاد این خطر برای خیریه‌های ملی و بزرگ‌تر شاید بیشتر باشد، چونکه احتمال کمتری می‌رود که آنها دارای فعالیت‌های بسیار تخصصی یا مکان‌محور باشند که ارزش استفاده از هوش مصنوعی را داشته باشد.

2. از دست رفتن مداخله انسانی (Loss Of Human Agency)

  • تأثیرگذاری بر جهان: می‌توان مشاغلی را برای حفظ مداخله انسانی طراحی کرد یا اینکه برای کاهش هزینه‌ها مشاغل را تعدیل کرد. اگر هدف صرفاً کاهش هزینه‌ها باشد، خطر از دست رفتن مشاغل و همچنین تأثیر سلامت روانی بر افرادی که در کار باقی می‌مانند، احساس می‌شود.
  • تأثیرگذاری بر سازمان‌های مردم‌نهاد: هوش مصنوعی، فرصت‌ بزرگی را برای دستیابی به اهداف بیشتر در اختیار خیریه‌ها قرار می‌دهد، اما در عین حال افراد بزرگ‌ترین دارایی ما هستند. از بین بردن مشاغل خیریه شاید مقداری در پول و هزینه‌ها صرفه‌جویی کند اما خسارت‌های بسیار بیشتری از لحاظ تأثیرگذاری بر جامعه و افراد به همراه خواهد داشت.

3. تفویض مسئولیت اخلاقی (Moral Outsourcing)

این اصطلاح توسط رومان چودهری (Rumman Chowdhury) ابداع شده که طبق آن پس از اعمال منطق ادراک و انتخاب برای هوش مصنوعی، ماشین مقصر شناخته شده و انسان از هرگونه خطای احتمالی مبراست. به این ترتیب افرادی که هوش مصنوعی را ایجاد کرده‌اند، به جای آنکه مسئولیت کار را برعهده بگیرند، بار آن را بر روی دوش محصولاتی می‌اندازند که خود ساخته‌اند. اما مشکلات مربوط به هوش مصنوعی به دلیل مجموعه داده‌هایی است که خود انسان در انتخاب، نحوه آموزش و استفاده از آنها نقش داشته است و بنابراین باید خود (انسان) را صاحب مشکل بدانیم.

4. کاهش سطح خلاقیت (Dumbing Down Creativity)

هوش مصنوعی در حال حاضر برای ایجاد محتوای هنری و اخبار ساده استفاده می‌شود، اما اگر گسترش پیدا کند ممکن است بر هنرمندان انسانی تأثیر بگذارد و کیفیت اخبار و سایر محتوا را تا حدی تقلیل دهد که به سطح «موزک سوپرمارکت» هوش مصنوعی برسد. شاید هنری وجود داشته باشد، اما جادوی خلاقیت از بین می‌رود.

خطرات بلندمدت مدت هوش مصنوعی

1. خندق دیجیتال (Digital Moat)

اصطلاح خندق اقتصادی (Economic moat) توسط وارن بافت (Warren Buffet) به شرکت‌هایی اطلاق شد که با تسلط فراوان بر مزیت‌‌های رقابتی بازار، دیگران را از هرگونه رقابت محروم می‌کنند. این خطر وجود دارد که تعداد قلیلی از خیریه‌های بسیار بزرگ که در حال حاضر بخش عمده درآمد حاصل از جمع‌آوری کمک‌های مالی را دریافت می‌کنند از تخصص بالای دیجیتال خود برای تسلط بازاری هرچه بیشتر به زیان خیریه‌های کوچک‌تر استفاده کنند. استراتژی پله‌های ترقی هوش مصنوعی تا حدی در واکنش به این خطر تدوین شده است.

2. حداکثرساز گیره کاغذ (The Paperclip Maximiser)

در سال 2003، طی یک آزمایش فکری، کامپیوتری تلاش کرد بشریت را از بین ببرد، در حالی که هدف اصلی آن فقط به حداکثر رساندن ساخت گیره‌های کاغذ بود! بدیهی است که این معضل توجه زیاد رسانه‌‌ها را به خود جلب می‌کند، اما تصور نمی‌کنیم که تا زمان دستیابی به هوش مصنوعی عمومی (AGI) - توانایی‌هایی شناختی شبیه انسان - خطر بزرگی تلقی شود. هیچکس خبر ندارد، اما فکر می‌کنیم که احتمالاً سال‌ها تا آن زمان باقی مانده و شاید فقط تا حدی قابل دستیابی باشد.

چارچوب اخلاق و حاکمیت هوش مصنوعی خیریه‌ها

چارچوب فوق یک ابزار ساده، کاربردی و انعطاف‌پذیر برای هریک از افراد درگیر با هوش مصنوعی در بخش خیریه است. می‌توانید موارد نظر را متناسب با نیازهای خود اضافه، اصلاح یا حذف کنید. قبل از آغاز کار پیشنهاد می‌شود مقاله وال‌استریت ژورنال با عنوان 25 سؤالی که باید از خود درباره هوش مصنوعی بپرسید را مطالعه کنید.

نحوه استفاده از چارچوب حاکمیت هوش مصنوعی

خیریه‌ها و مؤسسات مردم‌نهاد می‌توانند از این چارچوب به منظور زیر استفاده کنند:

  • ایجاد یک چارچوب هوش مصنوعی برای مؤسسه مردم‌نهاد و/یا
  • نهادینه‌سازی جنبه‌های مربوطه در رویه‌ها و دستورالعمل‌های جاری از قبیل:
    • حفاظت از داده‌ها، برابری، تنوع و شمولیت (EDI) و سیاست‌های اخلاقی جمع‌آوری کمک مالی

در خصوص افرادی که هوش مصنوعی را طراحی، راه‌اندازی یا تأمین بودجه می‌کنند، می‌توان این چارچوب را به RFPها، قراردادها و موافقت‌نامه‌های کمک هزینه مالی یا مواردی از این دست پیوست کرد.

- مقدمه

این چارچوب جهت اطمینان از کاربرد اخلاقی و قانونی هوش مصنوعی (AI) در مؤسسه خیریه با رعایت استانداردهای بالای انصاف، پاسخگویی و مسئولیت‌پذیری، شفافیت، حریم خصوصی و عدم تبعیض در توسعه، اجرا و نظارت بر سیستم‌های هوش مصنوعی مورد استفاده ایجاد شده است.

- دامنه کاربرد

این خط مشی برای همه متولیان، داوطبان، کارکنان، پیمانکاران و افراد ثالث که به نمایندگی از خیریه مشغول به فعالیت هستند، اعمال می‌شود. الزامات آن در صورت نیاز باید در سایر سیاست‌ها و رویه‌ها، موافقت‌نامه‌ها و قراردادها گنجانده شود.

- تعریف هوش مصنوعی

هوش مصنوعی به توانایی ماشین‌ یا نرم‌افزار برای انجام وظایفی که معمولاً به هوش انسانی نیاز دارند، اطلاق می‌شود. سیستم‌های هوش مصنوعی می‌توانند داده‌ها را پردازش کنند، از آنها بیاموزند و براساس آن داده‌ها تصمیم‌گیری یا پردازش کنند. هوش مصنوعی، حوزه گسترده‌ای است که انواع مختلف سیستم‌ها و رویکردهای هوش ماشینی از جمله هوش مصنوعی قاعده‌مند، یادگیری ماشین، شبکه‌های عصبی، پردازش زبان طبیعی و رباتیک را دربرمی‌گیرد.

- نظارت و کنترل انسانی

سیستم‌های هوش مصنوعی از نظارت شایسته انسانی برخوردار هستند و انسان‌ها مسئول همه تصمیمات نهایی در مورد خروجی خود تلقی می‌شوند.

- مدیریت

خیریه هر نوع دستورالعمل لازم را در خصوص موارد زیر تدوین خواهد کرد:

  • جمع‌آوری، استفاده و ذخیره‌سازی داده‌ها از جمله یک استراتژی مدیریت داده که نحوه کنترل و محافظ از داده‌های شخصی را مشخص کند.
  • اطمینان از پاسخگویی در قبال تصمیمات اتخاذشده توسط سیستم‌های هوش مصنوعی که شاید اقداماتی چون فرآیندهای حسابرسی و گزارش‌دهی را شامل شود.
  • استفاده از الگوریتم‌ها در تصمیم‌گیری، از جمله اقداماتی که برای اطمینان از منصفانه و بی‌طرفانه بودن این الگوریتم‌ها انجام خواهد شد.

خیریه تضمین خواهد کرد که:

  • افراد مسئول توسعه، اجرا یا نظارت بر هوش مصنوعی دارای مهارت و تجربه لازم هستند تا این اطمینان حاصل شود که سیاست حاکمیت هوش مصنوعی از انطباق مستمر با خط مشی برخوردار است.
  • هرگونه آموزش، برنامه‌های اطلاع‌رسانی و/یا دستورالعمل‌های لازم جهت حمایت از این امر فراهم می‌شود.
  • حاکمیت هوش مصنوعی در سایر سیاست‌ها و رویه‌ها، قراردادها، موافقت‌نامه‌ها و سایر اسناد نظیر شرح وظایف نیز نهادینه شده است.
  • افراد مسئول یا درگیر در هوش مصنوعی به اجرای خط مشی و مسئولیت‌های خود واقف بوده و در این زمینه پاسخگو خواهند بود.

مدیریت ریسک

تجزیه و تحلیل ریسک شامل موارد زیر است:

  • هر گروه خاص اعم از افراد، گروه‌ها و به طور کل جامعه یا محیط زیست که در معرض خطر باشد.
  • سایر موارد کاربرد قابل‌ پیش‌بینی فناوری از جمله سوء استفاده‌های تصادفی یا مخرب
  • انحرافی که در داخل سیستم ایجاد یا تقویت شده است.

خطرات به وضوح شناسایی و سنجیده شده‌اند و اقدامات پیشگیرانه/کاهنده تضمین می‌کند که سطح ریسک و خطر در محدوده‌های قابل قبول باقی خواهد ماند.

حریم خصوصی و حفاظت از داده‌های هوش مصنوعی

حریم خصوصی و حفاظت از داده‌های هوش مصنوعی

خیریه با انجام «ارزیابی تأثیرات حفاظت از داده» (DPIA) برای هوش مصنوعی، هرگونه تغییرات لازم را در خط مشی و رویه‌های خود اعمال می‌کند. در این راستا تدابیر زیر به کار گرفته خواهد شد:

  • استفاده از مجموعه داده‌های دقیق، منصفانه و معرف جامعه برای اطمینان از شمولیت آنها.
  • وارد نکردن داده‌های شخصی در مجموعه داده‌ها یا دست کم هویت‌زدایی و شبه ناشناس کردن آنها.
  • اطمینان از اینکه افراد مطلع شوند داده‌های شخصی و حساس نباید در سیستم‌های هوش مصنوعی وارد شود.
    • صرفنظر کردن از اشتراک‌گذاری داده‌های ChatGPT و/یا DALL-E با استفاده از این سند گوگل.
    • در صورت استفاده از یک API از اشتراک‌گذاری داده خودداری کنید.
  • یا خاموش کردن اشتراک‌گذاری داده‌ها در تنظیمات ChatGPT (گوشه سمت چپ پایین صفحه)، دکمه آن خیلی معلوم نیست.
  • اظهار استفاده از هوش مصنوعی در بیانیه‌های حریم خصوصی خیریه تا کاربران بدانند که:
    • چه زمانی داده‌های آنها توسط هوش مصنوعی استفاده می‌شود.
    • آیا هوش مصنوعی تصمیماتی را در قبال آنها می‌گیرد یا خیر و؛
    • اگر چنین است، این تصمیمات چیست؟

خیریه از راهنمای ICO در مورد هوش مصنوعی و حفاظت از داده‌ها آگاه است و هرگونه الزامات دیگر را در خط مشی و رویه‌های خود منعکس کرده است.

مدیریت تغییر و طراحی شغل

  • خیریه از کارکنان خود در زمینه انطباق با تغییراتی که هوش مصنوعی در سازمان به بار می‌آورد، حمایت می‌کند.
  • خیریه، توسعه مهارت‌ها را برای افراد ممکن می‌کند تا بتوانند از هوش مصنوعی برای تحقق هر چه بیشتر اهداف و کارهای خارق‌العاده‌ای که انجام می‌دهند، استفاده کنند.
  • خیریه هنگام طراحی وظایف و رویه‌های کاری، نیازهای کارکنان از جمله نیاز به مداخله انسانی را لحاظ می‌کند.

ارزیابی تأثیر هوش مصنوعی بر مشاغل بخش خیریه و آنچه خیریه‌ها باید در زمینه تلفیق هوش مصنوعی با وظایف و رویه‌های خود انجام دهند، در این مقاله آورده شده است.

ذی‌نفعان و سایر افراد آسیب‌پذیر

  • خیریه متعهد به ارتباط و تعامل واقعی با ذینفعان خود است تا اطمینان یابد که هوش مصنوعی با نیازها و ارزش‌های آنها همسوا ست.
  • خیریه، هرگونه محروم‌سازی یا آسیب‌رسانی به افراد براساس هویت آنها را در تجزیه و تحلیل ریسک لحاظ می‌کند.
  • خیریه، گام‌های معقولی را برای پیشگیری یا به حداقل رساندن هرگونه محرومیت یا آسیب‌رسانی برداشته و به طور شفاف این موضوع را اعلام می‌کند.
  • خیریه اطمینان می‌دهد که محتوای تولیدی:
    • به شأن و کرامت افراد احترام می‌گذارد.
    • آنها را به شکلی که مایل هستند، نشان می‌دهد.
  • خیریه، سیستم‌ها و محتوای خود را تا حد امکان در دسترس دیگران قرار می‌دهد.
  • خیریه تا جایی که به طور منطقی امکان‌پذیر باشد، تدابیر زیر را به کار خواهد گرفت:
    • استفاده از مجموعه داده‌های دقیق، منصفانه و معرف جامعه برای اطمینان از شمولیت آنها.
    • وارد نکردن داده‌های شخصی در مجموعه داده‌ها یا دست کم هویت‌زدایی و شبه ناشناس کردن آنها.
    • اظهار استفاده از هوش مصنوعی در بیانیه‌های حریم خصوصی خیریه تا کاربران بدانند که:
      • چه زمانی داده‌های آنها توسط هوش مصنوعی استفاده می‌شود.
      • آیا هوش مصنوعی تصمیماتی را در قبال آنها می‌گیرد یا خیر و
      • اگر چنین است، این تصمیمات چیست؟

اخلاق هوش مصنوعی

  • همه اقدامات منطقی برای شناسایی هرگونه انحراف در سیستم از جمله داده‌های منبعی که ممکن است استفاده کند، انجام شده است.
    • انحراف سیستمی ریشه‌کن شده یا تا حدی که در سطح قابل قبولی از خطر قرار بگیرد، کاهش یافته است.
    • خیریه درباره هر نوع انحراف سیستمی و نحوه مدیریت آن شفاف و باز عمل می‌کند.
  • در زمان استفاده از هوش مصنوعی برای تولید محتوا، بررسی‌ها و تدابیر لازم برای اطمینان از موارد زیر وجود دارد:
    • خیریه شفاف و آشکار اعلام می‌کند که محتوا توسط هوش مصنوعی ایجاد شده است.
      • اضافه کردن یک پاورقی به هر نوع متن و/یا برچسب‌گذاری تصاویر با عناوینی چون «اصیل و معتبر»، «تولید نسبی توسط هوش مصنوعی» یا «تولید کامل توسط هوش مصنوعی» می‌تواند در دستورکار قرار گیرد.
  • محتوای واقعی و غیرواقعی به شکل آشکار و عیان ظاهر شده یا به وضوح تصریح می‌شود.
  • هوش مصنوعی برای اهداف غیرمجاز استفاده نمی‌شود.
  • خیریه مراتب قدردانی شایسته خود را از مطالب تولیدی دیگران که مورد استفاده قرار داده یا برای تولید محتوا استفاده می‌شود، اعلام می‌کند.
  • جهت به حداقل رساندن احتمال خطا و عبارات مغرضانه/ افتراآمیز و غیره، تعدیل محتوای مناسب توسط انسان صورت می‌گیرد.

لزوم پیروی از قوانین

خیریه اطمینان حاصل می‌کند که:

  • مجوز کپی‌رایت افرادی که محتوای تولیدی آنها را مورد استفاده قرار داده، کسب کرده است یا اینکه؛
    • محتوا در دسته «استفاده منصفانه»، مجوز دولت باز (OGL) یا سایر دسته‌‌بندی‌های استفاده رایگان قرار دارد.
  • خیریه:
    • به طور آگاهانه از هر نوع محتوای آنلاین نظیر حساب‌های رسانه اجتماعی یا گالری‌های آنلاین که برچسب «Do Not AI» یا مشابه آن خورده‌اند، استفاده نمی‌کند.
    • تأثیرگذاری منفی بر حقوق و/یا آزادی‌های قانونی افراد یا گروه‌ها ندارد.
    • از قانون حفاظت از داده‌ها (Data Protection Act) به ویژه برای محافظت از اطلاعات شخصی و حساس پیروی می‌کند.
      • راهنمای ICO در مورد هوش مصنوعی و حفاظت از داده‌ها در خط مشی و رویه‌های خیریه منعکس شده است.

اخلاق هوش مصنوعی در جمع‌آوری کمک‌های مالی – پیشنهادنویسی

پیشنهادنویسی (Bid Writing) و جمع‌آوری کمک‌های مالی

یکی از وجوه خاص اخلاق هوش مصنوعی در جمع‌آوری کمک‌های مالی، پیشنهادنویسی (Bid Writing) برای دریافت کمک‌هزینه‌هاست. هوش مصنوعی این قدرت را دارد که به ایجاد فرصت‌های برابر و عادلانه در فرآیندهای توزیع کمک‌هزینه (گرنت) کمک کند. این فرآیندها گاهی اوقات منجر به این می‌شوند که خیریه‌های کوچک درآمد کمتری را کسب کنند و معمولاً خطر چشمگیر محروم‌سازی برخی خیریه‌ها و ناعادلانه کردن بیشتر فرآیند وجود دارد.

اینکه باید به خیریه کمک‌هزینه‌ای اهدا شود یا خیر، بستگی به این دارد که نیازهای برآورده‌نشده‌ آن تا چه حد بزرگ است و به چه نحوی می‌تواند آنها را برآورده کنید. با این حال دریافت یا عدم دریافت کمک هزینه تا حد زیادی به میزان شناخت خیریه از پیشنهادنویسی، میزان مهارت‌ در نوشتن پیشنهاد و اغلب مقدار شناخت آن از سرمایه‌گذار (اهداکننده کمک‌هزینه) بستگی دارد. اینها دو قضیه کاملاً متفاوت هستند که سیستم را برای گروه‌های کوچک و به حاشیه‌رانده‌شده ناعادلانه و برای گرنت‌دهندگان کم‌اثر می‌کنند. 

بیشتر بخوانید

ChatGPT چه تاثیری بر خیریه‌ها دارد؟

در نتیجه ابزار پیشنهادنویس هوش مصنوعی «چریتی اکسلنس» مجموعه‌ای از سؤالات را از افراد پرسیده و سپس از ChatGPT برای تبدیل آن به یک سند پشتیبانی مکتوب که حاوی اطلاعات مهم و مورد نیاز یک گرنت‌دهنده برای تصمیم‌گیری است، استفاده کرده است. 

ابزار پیشنهادنویس هوش مصنوعی رایگان است؟

این در دسترس رایگان همه قرار دارد، از جمله افرادی که هیچ مهارتی در مورد نوشتن پیشنهادات دریافت کمک‌هزینه ندارند و کسانی که نمی‌توانند خوب بنویسند، اعم از کسانی که لاتین زبان دوم آنهاست، مشکلات یادگیری دارند یا در نوشتن نثر مهارت خاصی ندارند.

البته هوش مصنوعی هرگز به خوبی یک پیشنهادنویس با تجربه عمل نمی‌کند. هوش مصنوعی حقیقتاً فاقد دانش، خلاقیت و قوه تشخیص ذاتی است، اما این فناوری با کمک به افرادی که نمی‌توانند پیشنهادات خوب بنویسند، به ایجاد فرصت‌های برابر و عادلانه منتهی می‌شود، حجم کار را کاهش می‌دهد و نوشتن پیشنهاد را برای آنها سریع‌تر و ساده‌تر می‌کند.

هدف ما از این کار فقط آزمایش نیست و قبلا شاهد بوده‌ایم که چطور امکان ایجاد یک فرآیند سرتاسری جمع‌آوری کمک مالی از مرحله جستجو تا ارائه وجود دارد. در این صورت عدالت بیشتری برقرار شده، حجم کاری متقاضیان کاهش یافته و شرایط بهتری برای گرنت‌دهندگان ایجاد می‌شود. 

با این حال تصور می‌شود که هوش مصنوعی به خوبی شناخته نشده و عدم درک این فناوری بسیار جدید و منافع مسلمی که مایل به ایجاد رقابت حاصل از هوش مصنوعی نیست، شاید منجر به ممنوعیت آن توسط گرنت‌دهندگان شود. این اتفاقی است که احتمالاً رخ می‌دهد و در این صورت گروه‌های کوچک و به حاشیه‌رانده‌شده نمی‌توانند از آن استفاده کنند. 

آیا سازمان‌های بزرگ امکان استفاده از این قابلیت را دارند؟

سازمان‌های بزرگ شاید بتوانند از آن برای ایجاد پیش‌نویس‌های اولیه استفاده کرده و سپس از پیشنهادنویسان باتجربه برای تبدیل به پیشنهادات باکیفیت بهره گیرند. به این ترتیب شاید نابرابری در محیط رقابتی حتی بیشتر شود.

روی دیگر سکه فرصت بزرگی است که برای ایجاد برابری در محیط بازی وجود دارد. گرنت‌دهندگان می‌توانند از هوش مصنوعی برای تبدیل فرآیندهای درخواست خود به مجموعه‌ای از سؤالات که همه می‌توانند به آنها پاسخ دهند استفاده کنند، نظیر کاری که چریتی اکسلنس انجام داده است. 

سپس این سؤالات با استفاده از هوش مصنوعی به یک تقاضانامه استاندارد تبدیل می‌شود. فرآیند کار دقیقاً مشابه با درخواست‌های شغلی ناشناس نیست، اما از همان اصول پیروی می‌کند. به این ترتیب نویسنده پیشنهاد حذف می‌شود، اما این کار رضایت ما را جلب می‌کند چرا که هدف، توانمندسازی بخش خیریه برای  به‌کارگیری هوش مصنوعی است.

استفاده از منابع مفید هوش مصنوعی

«چارچوب اخلاق و حاکمیت هوش مصنوعی در خیریه‌ها» به کمک GPT و همچین منابع مفید دیگر تدوین شده که برخی از آنها به شرح زیر هستند:

دولت و مقررات

  • سند دولت انگلیس: مقررات هوش مصنوعی: رویکرد حامی نوآوری. انتشار در 29 مارس 2023
  • ICO: راهنمای هوش مصنوعی و حفاظت از داده‌ها. به‌روزشده در 15 مارس 2023
  • DCMS: چارچوب اخلاق داده. انتشار در 16 سپتامبر 2020

منابع مفید

  • Responsible.AI – هوش مصنوعی مسئولانه در چارچوب جمع‌آوری کمک‌های مالی
  • گوگل – اصول هوش مصنوعی. انتشار در جولای 2018
  • Digital Catapult- چارچوب اخلاق هوش مصنوعی
  • وال‌استریت ژورنال: 25 پرسش که در حضور ChatGPT باید از خود بپرسید. به‌روزشده در 12 آوریل 2023
  • تایم: صفر تا صد هوش مصنوعی: انتشار در 13 آوریل 2023
  • مجمع جهانی اقتصاد – گزارش آینده مشاغل 2023

استفاده قانونی از هوش مصنوعی در خیریه‌ها

هر نهاد مردمی یا مؤسسه مردم‌نهاد ممکن است از این چارچوب یا بخش‌هایی از آن استفاده کند تا اطمینان یابد که استفاده از هوش مصنوعی منصفانه، قانونی و ایمن است. اما باید توجه داشت که این یک حوزه با تحولات بسیار سریع است و ما (چریتی اکسلنس) مسئولیت و عواقب کار را به عهده نمی‌گیریم. 

در صورت استفاده از این چارچوب مطلع باشید که ما هیچ مسئولیتی در قبال هرگونه ضرر یا زیان شما نداریم. در صورت نیاز از مشاوره حرفه‌ای استفاده کنید تا مطمئن شوید که نسخه شما با حذف، اضافه یا اصلاح بخش‌هایی از چارچوب به طور کامل نیازهای‌تان و هرگونه الزامات قانونی را برآورده می‌کند.

منبع: وبسایت charityexcellence