Китай согласился сотрудничать с США, ЕC и другими странами для совместного управления рисками, связанными с искусственным интеллектом. Об этом стало известно в среду в Великобритании, где прошел саммит. Ее целью было определить безопасный путь развития этой быстро развивающейся технологии.
В Блетчли-парке, где жили британские специалисты по взлому кодов времен Второй мировой войны, заместитель министра Китая впервые для Запада принял участие в мероприятии, в котором приняли участие лидеры США и ЕС, а также Элон Маск и Сэм Альтман из компании ChatGPT.
Более 25 стран, включая США и Китай, а также ЕС, подписали “Блетчлийскую декларацию”, в которой говорится о необходимости совместной работы и выработки единого подхода к надзору.
Ву Чжаохуэй, заместитель министра науки и технологий Китая, заявил на открытии двухдневного саммита, что Пекин готов расширить сотрудничество в области безопасности ИИ, чтобы помочь создать международную “систему управления”.
“Страны, независимо от их размера и масштаба, имеют равные права на разработку и использование ИИ”, – сказал он.
Используя инструменты обработки естественного языка для создания человекоподобных диалогов, эта система вызвала опасения, в том числе и у некоторых пионеров ИИ, что со временем машины могут достичь интеллекта, превосходящего человеческий, что приведет к неограниченным и непредвиденным последствиям.
В настоящее время правительства и официальные лица пытаются наметить пути дальнейшего развития, а также компании, работающие в области ИИ, которые опасаются, что на них ляжет груз регулирования до того, как технология полностью раскроет свой потенциал.
“Я не знаю, каковы будут справедливые правила, но прежде чем заниматься надзором, нужно начать с понимания”, – заявил миллиардер Маск журналистам.
Мустафа Сулейман, соучредитель Google Deepmind, заявил журналистам, что, по его мнению, нынешние модели искусственного интеллекта не несут “значительного катастрофического вреда”, но он считает, что имеет смысл планировать будущее, поскольку индустрия обучает все более крупные модели.