미국과 중국은 책임감 있는 AI 개발을 위한 프레임워크를 마련하는 데 동의했습니다. 당신이 알아야 할 사항은 다음과 같습니다
토비 맨
게시일 2024년 2월 25일 일요일 오전 7:58분 2024년 2월 25일 일요일 오전 7:58분
다채로운 그림은 조명을 받은 인간의 두뇌와 유사하게 배열된 컴퓨터 회로의 네온 경로를 보여줍니다.
AI 규정을 향한 잠정적인 조치가 있었지만 아직 해야 할 일이 많습니다.(AP: Michael Dwyer, 파일)
세계의 두 강대국이 수년간 관료와 전문가들의 로비 끝에 마침내 인공지능(AI)의 영향력과 범위 확대에 대한 우려를 논의하기로 합의했습니다.
중국과 미국 모두 자신의 연구와 역량을 제한하여 적에게 이점을 제공하는 것을 경계해 왔지만 관찰자들은 그러한 접근 방식의 실존적 위험이 너무 높다는 우려를 오랫동안 표명해 왔습니다.
지난해 AI 정책 및 윤리 전문가들은 “인류 멸종이나 돌이킬 수 없는 문명 붕괴를 초래할 수 있는 위험을 유발하는 AI의 능력은 아무리 강조해도 지나치지 않다”고 경고했다.
날짜는 정해지지 않았지만, 미국과 중국은 AI의 책임 있는 개발을 위한 프레임워크를 논의하기 위해 앞으로 몇 달 안에 만날 것으로 예상됩니다.
잠재적으로 상충되는 동기와 목표를 지닌 첨단 기술의 차세대 물결을 주시하면서 양측이 원하는 것이 무엇인지, 어떤 규정이 마련되어 있는지, 그리고 그들이 직면할 수 있는 위험을 살펴보겠습니다.
주요 관심사는 무엇입니까?
AI의 등장은 많은 우려를 불러일으켰습니다.
여기에는 민주적 절차를 방해하고, 과도한 사기를 유발하고, 광범위한 일자리 손실을 초래하는 데 사용될 수 있다는 두려움이 포함되며, 군사 적용에 대한 명백한 우려도 있습니다.
보다
지속 시간: 57초57초
AI는 사람들이 중요한 예비 선거에서 투표하지 않도록 설득하기 위해 가짜 “Joe Biden” 자동녹음전화를 만드는 데 사용되었습니다.
프롬프트에 응답하여 몇 초 만에 텍스트, 이미지 및 비디오를 생성할 수 있는 생성 인공 지능의 급속한 성장은 세계 인구의 절반 이상이 선거를 앞두고 있는 올해 주요 선거를 좌우하는 데 신기술이 사용될 수 있다는 우려를 고조시켰습니다. 여론 조사.
이미 정치에 개입하고 심지어 사람들이 투표하지 않도록 설득하는 데에도 사용되고 있습니다.
딥페이크와 거짓말쟁이의 배당금
생성적 AI는 우리가 정보에 접근하는 방식을 바꾸고 저널리즘의 미래를 재편하고 있습니다.
타이핑을 하고 있는 남자의 어깨 너머로 열려 있는 노트북이 보인다. 화면에 CHATGPT 소개라는 텍스트가 표시됩니다.
더 읽어보세요
지난 1월에는 조 바이든 미국 대통령의 가짜 음성을 사용한 자동녹음전화가 뉴햄프셔 유권자들에게 유포되어 주 대통령 예비선거 기간 동안 집에 머물 것을 촉구했습니다.
중국의 국가 안보 전략과 신기술에 대한 선도적인 분석가인 사만다 호프만(Samantha Hoffman)은 AI를 사용하여 대중을 속이고 심지어 정치적 과정을 전복시킬 수 있는 가능성을 가장 큰 위험 중 하나로 꼽았습니다.
그녀는 ABC와의 인터뷰에서 “생성 AI에 대한 관심과 언어, 데이터, 이미지, 사운드 등의 수집과 같은 잠재적인 가짜 이미지 및 텍스트 생성과 관련된 모든 것”이라고 말했습니다.
“사람들이 정보를 생각하고 인식하는 방식에 영향을 미칠 수 있다면 [정부]가 위기나 분쟁에 앞서 나가는 데 도움이 됩니다.
“정보 영역(가장 중요한 영역 중 하나)에서 패한다면 이미 전투에서 패했을 수도 있습니다.”
현장의 모듈형 첨단 무장 로봇 시스템.
미군은 최근 몇 년간 AI 로봇 개발에 중점을 두고 있다.(제공)
한편, 최근 브루킹스 연구소 보고서(미국-중국 AI 대화를 위한 로드맵)에서 저자 Ryan Hass와 Graham Webster는 AI 프레임워크에 대한 모든 논의가 세 가지 핵심 영역에 초점을 맞춰야 한다고 주장했습니다. 그리고 가능성의 영역에 집중하는 것입니다.”
군사 응용 분야의 경우 전장에서 AI를 사용하지 않겠다고 약속하는 것이 아니라 “허용 가능한 군사적 자동화 사용에 대한 경계와 공통 기대치를 구축하기 시작하는 것”이 과제라고 말했습니다.
현재 플레이 상황은 어떤가요?
흰색 전신 PPE를 입은 사람이 흰색 하이테크 제조 장치 줄에 서 있습니다.
미국은 중국의 AI 기술에 중요한 소형 마이크로칩 개발을 늦추려고 노력해 왔습니다.(AP: Darin Oswald/Idaho Statesman)
지난해 호주 전략정책연구소(Australian Strategic Policy Institute)의 보고서에 따르면 중국은 혁신, 성장, 군사력을 촉진할 가능성이 있는 44개 기술 중 37개에서 미국을 앞질렀다.
여기에는 AI, 로봇공학, 생명공학, 첨단 제조, 양자 기술이 포함됩니다.
미국의 마이크로칩 금지로 인해 중국의 기술 발전이 제한됨
중국의 발전 중인 첨단 마이크로칩 산업에 대한 통제를 강화함으로써 미국은 양국이 기술 패권을 추구하기 위해 막대한 돈을 지출하고 있기 때문에 동맹국들이 자국의 이익에 반하도록 압력을 가할 수 있습니다.
중국 6G
더 읽어보세요
미국은 양자컴퓨팅, 백신 등 단 7개 기술 부문에서 혁신을 주도하고 있으며 대부분의 다른 부문에서는 중국에 이어 2위를 차지하고 있습니다.
바이든 행정부는 과감한 조치를 취했다
추신: 중국의 AI 개발을 늦추세요.
중국은 핵심 기술에 대한 중국의 접근을 제한하는 법안을 통과시켰으며, 반도체 칩 제조 부문의 선두를 되찾기 위해 2,000억 달러(3,060억 달러) 이상을 지출하고 있습니다.
호프만 박사는 이것이 중국의 발전을 일부 둔화시킬 것이라고 말했습니다.
“그러나 그것은 멈추지 않을 것입니다”라고 호프만 박사는 ABC에 말했습니다.
조 바이든 미국 대통령과 시진핑 중국 국가주석이 캘리포니아에서 회담한 뒤 지난 11월 발표한 인공지능(AI) 협의 채널을 기반으로 한 회담이 필요한 이유다.
어떤 규정이 있나요?
한 남자가 사람들의 움직임을 추적하는 소프트웨어의 대형 화면을 보고 있습니다.
중국은 강력한 안면 인식 기술에 AI를 사용하여 공공 안전과 보안을 개선하는 데 도움이 된다고 말합니다.(로이터: Thomas Peter)
현재 규제 및 잠재적 통제가 형성되고 있습니다.
지난 11월 미국과 중국을 제외한 12개 이상의 국가는 AI에 대한 일반적인 권장 사항을 담은 20페이지 분량의 구속력 없는 합의서를 공개했습니다.
이 계약에는 AI 시스템 남용 모니터링, 변조로부터 데이터 보호, 소프트웨어 공급업체 조사 등의 주제가 포함되었습니다.
그러나 AI의 적절한 사용이나 이러한 모델에 제공되는 데이터가 어떻게 수집되는지와 같은 사항은 언급되지 않았습니다.
OpenAI, 텍스트 프롬프트에서 짧은 클립을 즉시 생성할 수 있는 비디오 모델 출시
놀라운 AI는 2024년에 두텁게 자리잡았지만, 가장 숙련된 AI 전문가조차도 OpenAI의 새로운 텍스트-비디오 도구인 Sora에 깊은 인상을 받았습니다.
현실감 넘치는 남자가 우주복을 입고 소금사막에 서서 엄숙하게 먼 곳을 응시하고 있다.
더 읽어보세요
지난 11월 영국에서 열린 글로벌 AI 안전 정상회담에서 중국 과학기술부 차관 우자오후이(Wu Zhaohui)는 중국이 AI 안전에 대한 협력을 강화해 “국제적 메커니즘, 참여 확대, 거버넌스 프레임워크 구축에 도움을 줄 준비가 되어 있다”고 말했다. 국민에게 혜택을 주는 폭넓은 공감대”
공식 행사 번역에 따르면 우 씨는 “인류의 미래를 공유하는 공동체를 구축하는 것”이라고 말했다.
이번 정상회담에 참석한 미국과 중국을 포함해 25개 이상의 국가가 ‘블렛츨리 선언’에 서명했으며, 이를 통해 그들은 함께 협력하고 감독에 대한 공통 접근 방식을 수립할 예정입니다.
보다
지속 시간: 2분 41초2분 41초
AI에 대한 공통의 규제 접근 방식을 확립하기 위해 전 세계의 힘이 협력해야 합니다.
그러나 양측의 진부한 주장에도 불구하고 많은 AI 정책 및 윤리 전문가들은 중국과 미국, 그리고 각자의 군대가 공동 이익이나 세계 안전에 대한 공동의 의지를 보여줄 수 있는지 여부는 아직 알 수 없다고 주장합니다.
미국이 미국 국가안보, 경제, 공중보건, 안전에 위험을 초래하는 AI 시스템 개발자들이 안전 테스트 결과를 정부와 공유해야 하는 AI 안전연구소를 출범시킬 예정이다.
한편, 중국은 이미 AI 훈련에 사용되는 일부 정보 소스를 블랙리스트에 올렸습니다.
금지된 정보에는 ‘테러주의 옹호’나 폭력을 옹호하는 것뿐만 아니라 ‘사회주의 체제 전복’, ‘국가 이미지 훼손’, ‘국가 단결과 사회 안정을 훼손하는 것’ 등 중국 인터넷에서 검열되는 내용이 포함된다. 정보보호표준화위원회가 밝혔습니다.
베이징은 또한 대중 시장에 출시되는 모든 AI 제품을 출시하기 전에 이를 허가해야 합니다.
전문가들은 회담이 무엇을 달성하기를 희망합니까?
문자 A와 I는 컴퓨터 칩의 빨간색과 검은색 클로즈업 위에 배치됩니다.
호프만 박사는 중국과 미국이 AI 기술을 사용하는 데 동일한 목표를 가지고 있지 않다고 말했습니다.(Reuters: Dado Ruvic/Illustration)
두 초강대국이 AI 패권을 놓고 경쟁하는 가운데, 전문가들은 어느 국가든 상대방의 AI 접근 방식에 대해 아는 바가 거의 없다는 점을 고려할 때 AI 안전에 대한 공통 기반 구축의 중요성이 커지고 있다고 경고했습니다.
최근 몇 주 동안 중국과 미국이 “올 봄”(호주에서는 가을) 양자 회담을 준비하고 있는 것으로 밝혀졌습니다.
호프만 박사는 회담의 최종 매개변수는 아직 발표되지 않았지만 AI의 광범위한 적용을 고려할 때 “잠재적으로 모든 것”을 다룰 수 있다고 말했습니다.
기본적으로 AI는 전장에서 사용되는 첨단 미래 무기와 드론부터 일상 업무에 이르기까지 영향을 받지 않을 영역을 생각하기 어려울 정도로 다양한 응용 분야에 적용할 수 있습니다.
그녀는 “의료 애플리케이션부터 자율 무기, 얼굴 인식, ChatGPT 등 모든 것을 다룹니다.”라고 말했습니다.
이미 분명한 사실 중 하나는 중국과 미국이 AI를 통해 동일한 목표를 추구하고 있지 않다는 점이라고 호프만 박사는 ABC와의 인터뷰에서 말했습니다. 현재 AI 개발이 양국의 국가 전략에 영향을 미치고 있기 때문입니다.
호프만 박사는 “그들은 실제로 기존 세계 질서를 교체하는 것에 대해 이야기하고 있습니다.”라고 설명합니다.
미국과 중국 기술의 교활한 오싹함
자신의 진로를 결정하는 호주의 능력을 깊이 잠식한 엄청난 기술 격차는 이제 너무나 광대해졌습니다.
브리지가 불가능해집니다.
중국과 미국의 국기가 스마트폰에 표시되고 있으며 배경에는 NVIDIA 칩이 보입니다.
더 읽어보세요
그러나 중국이나 미국이 서로 독립적으로 기술 발전을 계속하는 것은 거의 불가능하기 때문에 Hoffman 박사는 양측이 논의하고 싶어할 한 가지가 있다고 믿습니다.
호프만 박사는 “위험을 관리하는 가장 책임감 있는 방법을 찾는 것이 중요하다”고 말했다.
브루킹스 연구소 보고서의 저자는 AI에는 많은 정보가 필요하므로 “양 정부가 검토한 데이터 공유를 위한 표준을 개발하는 것은 엄청나게 강력할 수 있습니다”라고 썼습니다.
보고서는 이번 회담을 이용해 중국의 핵심 기술 접근을 막는 미국과 같은 우려를 제기하는 등 다른 우려를 제기하면 “대화를 막다른 골목으로 몰고 갈 것”이라고 덧붙였다.
즉, 회담의 성격이 일반적이고 구체적인 합의로 이어지지 않더라도 전문가와 정책 입안자들은 협력하겠다는 약속을 하는 것이 대화를 하지 않고 은밀하게 AI 프레임워크를 계속 개발하는 것보다 훨씬 더 나은 시나리오라는 데 동의합니다.
게시일: 2024년 2월 25일
US and China agree to map out framework for developing AI responsibly. Here’s what you need to know
By Toby Mann
Posted Sun 25 Feb 2024 at 7:58amSunday 25 Feb 2024 at 7:58am
The world’s two powerhouse nations have finally agreed to sit down and discuss their concerns around the expanding power and reach of artificial intelligence (AI) after years of lobbying from officials and experts.
Both Beijing and Washington have been wary of giving their adversary an advantage by limiting their own research and capabilities, but observers have long-expressed concern that the existential risks of such an approach are far too high.
“The capacity of AI to induce risks that could potentially result in human extinction or irrevocable civilisational collapse cannot be overstated,” AI policy and ethics experts warned last year.
While a date hasn’t been set, it’s expected that the US and China will meet in the next few months to work on a framework for the responsible development of AI.
As they eye the next wave of advance tech with potentially conflicting motivations and goals, here’s a look at what each side wants, what regulations are in place, and the risks they may contend with.
What are the main concerns?
The rise of AI has fed a host of concerns.
They include fears it could be used to disrupt the democratic process, turbocharge fraud, cause widespread job losses — and then there’s the obvious worries around military applications.
The rapid growth of generative artificial intelligence, which can create text, images and video in seconds in response to prompts, has heightened fears that the new technology could be used to sway major elections this year, as more than half of the world’s population head to the polls.
It’s already being used to meddle in politics and even convince people not to vote.
Deepfakes and the liar’s dividend
Generative AI is changing the way we access information, and reshaping the future of journalism.
In January, a robocall using fake audio of US President Joe Biden circulated to New Hampshire voters, urging them to stay home during the state’s presidential primary election.
For Samantha Hoffman, a leading analyst on China’s national security strategy and emerging technology, the potential to use AI to dupe the public and even subvert political processes are among the greatest risks.
“Things like the interest in generative AI and collection of things like language, data, images, sound — anything related to the generation of potentially fake images and text and so on,” she told the ABC.
“If you can influence the way that people think and perceive information it helps the [government] stay ahead of a crisis or conflict.
“If you lose in the information domain — that’s one of the most critical domains — and so you might have already lost the battle.”
Meanwhile, in a recent Brookings Institute report — A roadmap for a US-China AI dialogue — authors Ryan Hass and Graham Webster argued that any discussion about AI frameworks need to focus on three key areas: “Military uses of AI, enabling positive cooperation, and keeping focused on the realm of the possible.”
For military applications, they said the challenge was not about promising not to use AI on the battlefield but to “begin building boundaries and common expectations around acceptable military uses of automation”.
What’s the current state of play?
Last year, a report from the Australian Strategic Policy Institute found China was beating the US in 37 of 44 technologies likely to propel innovation, growth and military power.
They include AI, robotics, biotechnology, advanced manufacturing, and quantum technology.
US microchip ban limits China’s technical advances
The US leads innovation in only seven technologies — including quantum computing and vaccines — and ranks second to China in most other categories.
The Biden administration has taken drastic steps to slow China’s AI development.
It has passed laws to restrict China’s access to critical technology, and is also spending more than $US200 billion ($306 billion) to regain its lead in manufacturing semiconductor chips.
Dr Hoffman said that would slow down some of China’s development.
“But, it’s not going to stop,” Dr Hoffman told the ABC.
And so the need for the talks, which will build on a channel for consultation on artificial intelligence announced in November after US President Joe Biden and Chinese President Xi Jinping met in California.
What regulations are in place?
Regulations and potential controls are currently being formed.
In November, the US and more than a dozen other countries, with the notable exception of China, unveiled a 20-page non-binding agreement carrying general recommendations on AI.
The agreement covered topics including monitoring AI systems for abuse, protecting data from tampering and vetting software suppliers.
But it didn’t mention things like the appropriate uses of AI, or how the data that feeds these models is gathered.
OpenAI launches video model that can instantly create short clips from text prompts
At a global AI safety summit in the UK in November, Wu Zhaohui, China’s vice minister of science and technology, said Beijing was ready to increase collaboration on AI safety to help build an “international mechanism, broadening participation, and a governance framework based on wide consensus delivering benefits to the people”.
“Building a community with a shared future for mankind,” Mr Wu said, according to an official event translation.
More than 25 countries present at the summit, including the US and China signed the “Bletchley Declaration”, under which they will work together and establish a common approach on oversight.
But despite the platitudes from both sides, many AI policy and ethics experts maintain that it’s yet to be seen whether Beijing and Washington and their respective militaries can demonstrate a shared commitment to common interests or global safety.
The US is set to launch an AI safety institute, where developers of AI systems that pose risks to US national security, the economy, public health or safety will have to share the results of safety tests with the government.
Meanwhile, China has already blacklisted some information sources from being used to train AI.
The banned information covers things that are censored on the Chinese internet, including “advocating terrorism” or violence, as well as “overthrowing the socialist system”, “damaging the country’s image”, and “undermining national unity and social stability”, China’s National Information Security Standardisation Committee said.
Beijing also has to clear any mass-market AI products before they are released.
What do experts hope talks will achieve?
As the two superpowers compete for AI dominance, experts have warned of the increasing importance for common ground on AI safety to be established, given how little either country knows about their counterpart’s approach to AI.
In recent weeks, it’s been revealed that Beijing and Washington are preparing for bilateral talks “this spring” (autumn in Australia).
While the final parameters for the talks are yet to be announced, given the wide applications of AI, they could cover “potentially everything”, Dr Hoffman said.
Basically, AI can be adapted to use in so many applications it’s hard to think of areas that won’t be affected, from high-tech future weapons and drones used on battlefields to everyday tasks.
“It covers everything from healthcare applications to autonomous weapons, things like facial recognition to things like ChatGPT,” she said.
One thing that has become clear already is that China and the US are not pursuing the same goals with AI, Dr Hoffman told the ABC, as the development of AI currently plays into their respective national strategies.
“They’re really talking about replacing the existing world order,” Dr Hoffman explains.
The insidious creep of US and Chinese technology
But, because it will be almost impossible for either China or the US to continue their technological advancements independent of each other, there’s one thing Dr Hoffman believes both sides will want to discuss.
“It’s about finding the most responsible ways to manage risk,” Dr Hoffman said.
AI needs lots of information, and so developing standards for “data sharing vetted by both governments could be immensely powerful”, the authors of the Brookings Institute report wrote.
Using the talks to raise other concerns, even ones that seem related like the US blocks on China’s access to critical technologies, “would push the dialogue into a cul-de-sac”, the report added.
That said, even if the talks remain general in nature and don’t lead to any concrete agreement, experts and policymakers agree that a pledged willingness to cooperate is a much better scenario than not talking and continuing to develop AI frameworks covertly in isolation.
Posted 25 Feb 2024