고객이나 직원에게 알리지 않고 AI를 사용하는 기업, 정부에서 ‘의무적’ AI 규칙으로 전환
정치 기자 제이크 에반스
주제: 기업
9월 5일 목요일
쇼핑객으로 가득 찬 분주한 쇼핑몰의 상공 사진.
기업들이 AI를 빠르게 도입하고 있지만, 3분의 1은 직원이나 고객에게 알리지 않고 사용하고 있습니다. (AAP 사진: 제러미 응)
간단히 말해서:
호주 기업들이 직원이나 고객에게 알리지 않고 AI를 사용하고 있습니다.
연방 정부는 AI 기술에 대한 다른 “예방적” 조치 중 하나로 기업이 AI를 사용하는 경우 공개하도록 요구하고자 합니다.
다음은 무엇일까요?
연방 정부는 가장 위험한 AI 도구의 금지 가능성을 포함하여 고위험 AI에 대한 “의무적 보호책”에 대해 협의할 것입니다.
AI를 사용하는 기업 리더를 대상으로 한 설문 조사에서 인공지능을 사용하는 기업의 3분의 1이 직원이나 고객에게 그렇게 한다는 사실을 알리지 않고 있다고 밝혀졌습니다.
연방 정부가 고위험 AI에 대한 “의무적” 규칙을 제안함에 따라 AI법과 너무 위험하다고 여겨지는 기술에 대한 금지를 포함한 가능성이 있습니다.
AI를 사용하는 회사의 호주 최고경영자, 최고기술책임자 및 기타 리더에 대한 포괄적인 설문 조사에서 대부분이 AI를 책임감 있게 사용하는 데 있어 미숙하거나 “개발 중”인 것으로 나타났습니다.
해당 기업 리더들은 회사가 24시간 고객 서비스 제공, 추가 제품 추천, 이전 상호 작용에 따라 고객 가격 변경 등 다양한 방식으로 AI를 사용하고 있다고 말했습니다.
하지만 절반은 AI 사용에 대한 인권 또는 위험 평가를 수행하지 않았으며, 그럴 계획이 없다고 말했습니다.
‘가드레일’은 기업이 AI 사용을 공개하도록 요구합니다.
비즈니스와 일상 생활에서 AI 사용이 빠르게 증가함에 따라 연방 정부는 고위험 AI에 대한 “의무적 가드레일”을 만들 계획이라고 발표했습니다.
산업부 장관인 에드 후식은 AI가 큰 기회를 제공하지만 현재 표준은 충분하지 않다고 말했습니다.
“호주인들은 AI가 대단한 일을 할 수 있다는 것을 알고 있지만, 사람들은 일이 잘못될 경우를 대비해 보호 조치가 있는지 알고 싶어합니다.”라고 그는 말했습니다.
“오늘부터 우리는 그러한 보호 조치를 시행하기 시작합니다.”
정부는 기존 규정을 조정하는 가장 가벼운 접근 방식에서 너무 위험하다고 여겨지는 AI 기술을 금지하는 것을 포함할 수 있는 경제 전반에 걸친 독립적인 행위에 이르기까지 AI에 대한 규칙을 설정하는 세 가지 옵션을 제안했습니다.
이러한 규칙 중 하나는 AI의 “개발자 및 배포자”가 AI가 자신에 대한 결정을 내리는 데 사용되거나 AI 또는 AI에서 생성된 콘텐츠와 직접 상호 작용할 때 개인에게 알려야 한다는 것입니다.
연방 정부는 또한 개인의 업무 성과, 선호도 및 행동 또는 “사회적 점수”를 위한 이동 및 위치와 같은 지표를 프로파일링하는 도구를 금지해야 하는지 여부를 물었습니다.
AI 기회이지만 이미 발생한 피해
호주 기술 위원회는 AI가 경제에 수십억 달러를 추가할 잠재력이 있으며 ChatGPT와 같은 생성 AI만으로도 향후 5년 동안 경제에 최대 1,150억 달러를 추가할 수 있다고 말합니다.
하지만 AI의 해악 가능성은 더 명확해졌고, 정부는 협의에서 AI가 이미 피해를 입힌 사례를 여러 건 발견했습니다.
AI 인플루언서의 부상
사진은 그래픽 이미지로 촬영된 AI 인플루언서 마고 모네를 보여줍니다.AI 인플루언서 마고 모네가 그래픽 이미지로 촬영되었습니다.
사람들이 온라인에서 더 많은 시간을 보내면서 인공적으로 생성된 인플루언서와 맺은 유대감이 커지고 있습니다. 하지만 전문가들은 이 현상이 인터넷의 어두운 구석에서 해로운 행동을 부추길 수도 있다고 경고합니다.
예를 들어, 일부 AI 이력서 검토 신청서가 특정 인종과 성별에 속하는 구직자를 부당하게 차별했다는 사실을 발견했습니다.
원주민 자료가 동의 없이 AI를 훈련하는 데 사용되거나 해당 도구에 의해 오용된 사례가 있었습니다.
학교와 대학 시험에서 AI 부정행위를 탐지하는 데 사용되는 소프트웨어는 영어가 모국어가 아닌 사람을 차별하고 부정행위에 대한 거짓 고발로 이어질 수 있습니다.
그리고 작년 1~3분기에 가장 많이 사용되는 딥페이크 포르노 사이트 40곳에 15만 건에 가까운 새로운 딥페이크 포르노 영상이 업로드되었는데, 여기에는 테일러 스위프트와 이탈리아 총리를 표적으로 삼은 유명 사건도 포함됩니다.
Bacchus Marsh Grammar의 정문에 있는 표지판.
AI가 생성한 성적 학대 자료는 올해 초에 Bacchus Marsh Grammar의 여학생 약 50명이 표적으로 삼아지면서 중요한 문제가 되었습니다. (ABC News)
해외에서는 호주의 동맹국들이 잠재적 피해가 더 명확해짐에 따라 AI를 통제하기 위한 법률을 개발하기 위해 움직였습니다. 여기에는 유럽 연합이 채택한 세계 최초의 AI 법, 캐나다와 영국의 법률 제정 제안, 미국의 여러 주가 AI 피해를 제한하기 위한 조치를 채택하는 것이 포함됩니다.
호주 정부는 유럽 연합과 캐나다가 채택한 것과 유사한 AI가 개인과 사회에 미치는 위험에 근거한 예방 조치를 도입하려고 합니다
ada.
이러한 조치에는 AI 개발자 및 배포자가 책임 프로세스, 위험 관리 프로세스를 수립하고, AI 시스템에서 인간의 개입을 가능하게 하고, AI가 자신에 대한 의사 결정을 내리는 데 사용될 때 개인에게 알리도록 요구하는 것이 포함됩니다.
책임 있는 AI 사용에서 가장 성과가 나쁜 소매 및 호텔업
정부가 후원하는 책임 있는 AI 지수는 챗봇, 음성 인식, 로봇 공학 및 기타 다양한 기술에서 AI를 사용하는 413개 기업의 리더에게 질문을 했습니다.
소수의 기업이 AI를 책임감 있게 사용하는 방법을 신중하게 고려했지만 절반은 미숙하거나 성숙한 접근 방식을 취했습니다.
그 중에서도 호텔업 및 소매 서비스는 다른 부문보다 성과가 나빴습니다.
차트에 따르면 모든 부문은 평균적으로 “개발 중” AI 점수를 받았으며, 소매업은 다른 부문보다 현저히 나쁩니다.
책임 있는 AI 지수를 위해 완료된 설문 조사에 따르면 소매업 및 호텔업은 부문으로서 AI 사용의 성숙도에서 가장 낮은 점수를 받았습니다. (5사분면)
조직에서 “직원과 고객을 포함한 관련 이해 관계자에게 제품 및/또는 서비스에서 AI 및 AI 생성 콘텐츠 사용에 대해 알렸는지”에 대한 질문에 34% 또는 약 140명의 기업 리더가 그렇게 하지 않았으며 계획도 없다고 답했습니다.
“대중은 우려하고 있습니다… 기업이 이러한 우려에 대해 조치를 취하는 것이 이익이 됩니다.”라고 Husic 씨는 말했습니다.
정부는 의무적 보호책 제안과 함께 기업을 위한 AI 안전 표준도 발표했는데, 이는 기업이 스스로와 소비자를 보호하기 위해 구현할 수 있는 보호책에 대한 지침을 제공합니다.
Husic 씨는 정부가 4주간의 협의를 통해 제안된 규칙을 어떻게 시행할지 결정할 것이라고 말했습니다.
어제 오전 12시 2분에 게시, 2회 업데이트
ada.
Businesses using AI without telling customers or employees, survey reveals, as government moves on ‘mandatory’ AI rules
By political reporter Jake Evans
Thu 5 SepThursday 5 September
In short:
Australian businesses are using AI without informing their staff or customers.
The federal government wants to require businesses to disclose if they are using AI, among a suite of other “precautionary” measures for AI tech.
What’s next?
The federal government will consult on its “mandatory guardrails” for high-risk AI, including possible prohibition of the riskiest AI tools.
abc.net.au/news/ai-mandatory-guardrails-laws-business-customer-disclosure/104308250
Link copiedShare article
A third of businesses using artificial intelligence are not informing their employees or customers that they are doing so, a survey of business leaders using AI has revealed.
It comes as the federal government proposes “mandatory” rules for high-risk AI, including a possible AI Act and prohibitions on technologies deemed too risky.
A comprehensive survey of Australian chief executives, chief technology officers and other leaders of companies using AI found most had immature or “developing” approaches to using AI responsibly.
Those business leaders said their companies were using AI in a wide variety of ways, including providing 24/7 customer service, recommending additional products and altering prices for customers based on previous interactions.
But half had not carried out human rights or risk assessments on their uses of AI, and said they had no plans to do so.
‘Guardrails’ would require businesses to disclose AI use
As the use of AI in business and everyday life rapidly increases, the federal government has announced its intention to create “mandatory guardrails” for high-risk AI.
Industry Minister Ed Husic said AI offered great opportunity but the current standards were insufficient.
“Australians know AI can do great things but people want to know there are protections in place if things go off the rails,” he said.
“From today, we’re starting to put those protections in place.”
The government has proposed three options to set rules for AI, ranging from a lightest-touch approach to adjust existing regulations, to a standalone economy-wide act that could include the prohibition of AI technologies deemed too risky.
One of those rules would require “developers and deployers” of AI to inform individuals when AI is used to make decisions about them or they are directly interacting with AI or AI-generated content.
The federal government has also asked whether tools that profile metrics such as a person’s work performance, preferences and behaviour or movements and location for “social scoring” should be banned.
AI opportunity, but harm already caused
Australia’s Tech Council says AI has the potential to add billions to the economy, and generative AI like ChatGPT alone could add up to $115 billion to the economy in the next five years.
But AI’s potential to harm has become clearer, and the government in its consultations found multiple instances where AI had already caused damage.Inside the rise of AI influencers
Photo shows AI influencer Margot Monet, pictured in a graphic image.
As people spend more time online, bonds forged with artificially generated influencers are rising. But experts warn the phenomenon could also be fuelling harmful behaviours in the darker corners of the internet.
For example, it found some AI resume screening applications had discriminated unfairly against job candidates belonging to a certain ethnic group and gender.
There had been cases of First Nations material being used without consent to train AI, or misappropriated by those tools.
Software used to detect AI cheating in school and university tests could discriminate against non-native English speakers and lead to false accusations of cheating.
And in the first three quarters of last year, almost 150,000 new deepfake pornographic videos were uploaded to the 40 most used deepfake pornography sites — including high-profile incidents including Taylor Swift and Italy’s prime minister being targeted.
Overseas, Australia’s allies have moved to develop laws to control AI as potential harms become clearer, including a world-first AI Act adopted by the European Union, proposals to create laws by Canada and the United Kingdom, and several states in the United States adopting measures to limit AI harms.
The Australian government is seeking to introduce precautionary measures based on AI’s risk to individuals and society, similar to ones adopted by the European Union and Canada.
Among those measures would be requirements for developers and deployers of AI to establish accountability processes, risk management processes, enable human intervention in an AI system and to inform individuals when AI is used to make decisions about them.
Retail and hospitality worst performers on responsible AI use
The government-sponsored Responsible AI Index questioned leaders of 413 businesses using AI in chatbots, speech recognition, robotics and a variety of other technologies.
A handful had carefully considered how to use AI responsibly — but half had an immature or maturing approach.
Among those, hospitality and retail services performed worse than other sectors.
Asked whether their organisation had “informed relevant stakeholders, including employees and customers, about the use of AI and AI-generated content in products and/or services”, 34 per cent or about 140 business leaders said they had not done so, and had no plans to.
“The public is concerned … it is in the interest of business to act on those concerns,” Mr Husic said.
Alongside its mandatory guardrail proposals, the government has also published an AI Safety Standard for businesses, which offers guidance on guardrails businesses could implement to protect themselves and consumers.
Mr Husic said the government would use its four-week consultation to determine how its proposed rules would be enforced.
Posted Yesterday at 12:02am, updated 2