أحث السيناتور في رسالته على توضيح وتسمية المحتوى الذي يتم إنشاؤه بواسطة الذكاء الصناعي (AI).
في هذا السياق، دعا Bennet الشركات التكنولوجية لضرورة وضع علامات توضيحية على المحتوى المنتج من قبل الذكاء الصناعي، ومراقبة أي محتوى قد يكون مضللاً وتم إنتاجه عن طريق الذكاء الصناعي.
في رسالة بتاريخ 29 يونيو وجهها إلى القيادات التنفيذية في الشركات التكنولوجية الرئيسية المنتجة للذكاء الصناعي، بما في ذلك OpenAI الشركة المنشئة لـ ChatGPT و Microsoft و Meta و Twitter و Alphabet، أشار Bennet إلى أهمية أن يكون المستخدمين على علم عندما يتم استخدام الذكاء الصناعي في إنتاج المحتوى.
أكد Bennet على الأضرار الكبيرة التي قد تسببها الصور المزيفة على الاقتصاد وثقة العوام، خاصة إذا كانت هذه الصور تحمل الطابع السياسي.
قال Bennet : “الاستمرار في إنتاج وتوزيع المحتوى الذي يُنشأ بواسطة الذكاء الصناعي دون الكشف الواضح والمباشر عن ذلك يشكل خطراً كبيراً على الحوار العام ونزاهة الانتخابات.”
وأشار السناتور إلى أنه بالرغم من أن بعض الشركات بدأت في وضع علامات على بعض المحتوى المنتج بواسطة الذكاء الصناعي، إلا أن السياسات الحالية “تعتمد بشكل مقلق على التزامات طوعية من الشركات.”
في الرسالة، طلب Bennet من القيادات التنفيذية لهذه الشركات أن ترد على القضايا المتعلقة بالمعايير المستخدمة في تحديد المحتوى المنتج بواسطة الذكاء الصناعي، وتطبيق هذه المعايير، وكذلك العواقب المرتبطة بانتهاك هذه القواعد، وذلك قبل 31 يوليو.
وحتى الآن، كانت Twitter هي الشركة الوحيدة التي ردت، حيث ردت بإرسالها لرمز تعبيري للبراز.💩
وقد أعرب أعضاء البرلمان الأوروبي عن مخاوف مشابهة حول المحتوى الغير مُسمى الذي يُنتجه الذكاء الصناعي والذي يمكن أن يساهم في نشر المعلومات الخاطئة.
ففي الخامس من يونيو أوضحت Vera Jourova نائبة رئيس المفوضية الأوروبية للقيم والشفافية، أنها تعتقد أن الشركات التي تستخدم أدوات الذكاء الصناعي التي لديها “القدرة على نشر الأخبار الكاذبة” يجب أن تضع علامات توضيحية على المحتوى الذي تنشئه.
وبالرغم من أن الولايات المتحدة لا تملك حاليا أي تشريعات شاملة تنظم الذكاء الصناعي، فقد اقترح القانونيون الأمريكيون في الثامن من يونيو مشروع قوانين ترمي إلى تعزيز الشفافية والابتكار في مجال الذكاء الصناعي.