تتزايد الخطابات حول أخلاقيات الذكاء الاصطناعي مما يجعل رؤية الصورة لـ"أخلاقيات الذكاء الاصطناعي" "AI Ethics" تبدو ضمن مشهد يتسم بعدم الوضوح وصعوبة التنفيذ، وعلى الرغم من ذلك ارتبطت أخلاقيات الذكاء الاصطناعي بالاتصال الاستراتيجي للعلاقات العامة ارتباطاً وثيقاً، وفي هذا السياق تهدف الدراسة الحالية إلى رصد سمات التأطير المؤسسي لأخلاقيات استدامة الذكاء الاصطناعي، من خلال التحليل النصي لعينة من المواثيق الدولية والعربية. تنتمي الدراسة منهجياً إلى الدراسات الاستطلاعية التحليلية المقارنة، في نطاق مواثيق الاستخدام الأخلاقي للذكاء الاصطناعي فى العلاقات العامة والاتصال الاستراتيجي. حظي إطار التنوع والعدالة وعدم التمييز بالأولوية في نصوص المواثيق محل الدراسة، يلية حوكمة البيانات وخصوصية المستخدم والسلامة، ثم إطاري الثقة والاستدامة، يليهما أٌطر الشفافية وحق المستخدم في المساءلة والرقابة البشرية، ثم أٌطر الاستقلالية والتحكم الذاتي للمستخدم وحقوق العاملين والتوظيف. كشفت التحليل الموضوعي عن تقارب نصوص الوثائق عينة الدراسة، من حيث أساليب تأطير الاستخدام الأخلاقي للذكاء الاصطناعي، كما رصدت الباحثة اختلافاً طفيفاً من حيث أولويات الأطر في الوثائق محل الدراسة؛ وساد التشابة المعايير التي تبنتها الوثائق محل الدراسة للتأطير الأخلاقي للذكاء الاصطناعي. اقترحت الباحثة نموذجاً للتأطير المؤسسي لأخلاقيات استدامة الذكاء الاصطناعي للعلاقات العامة والاتصال الاستراتيجي.