Министерство обороны официально утвердило пять принципов этического развития возможностей искусственного интеллекта.
Пять этических принципов ИИ, основанных на рекомендациях Совета по оборонным инновациям:
1. Ответственность. Персонал министерства обороны США будет проявлять надлежащий уровень здравомыслия и внимательности, будучи ответственным за разработку, развертывание и использование возможностей AI.
2. Беспристрастность. Министерство обороны США предпримет шаги к минимизации непреднамеренных изменений в возможностях AI.
3. Доступность для анализа. Разработка и развертывание AI в Министерстве обороны США будет прозрачной, основанной на проверяемых методологиях, источниках данных, процедурах проектирования и документации. Персонал должен иметь надлежащее понимание технологий, процессов разработки и методов работы, применяемых при этом.
4. Надежность. AI найдет четко определенное применение, безопасность, надежность и эффективность которого будут подлежать проверке.
5. Управляемость. Министерство обороны США будет проектировать и разрабатывать возможности ИИ для выполнения их намеченных функций, обладая способностью обнаруживать и избегать непреднамеренных последствий, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.
А каким документом вводятся подобные принципы?
К чему они ближе к ТБ или разного рода принципам наподобие "Этики судьи"?
Т.е. они получат какую-то дополнительную нормативно-правовую базу с фиксируемой ответственностью или бла-бла-бла?