![[AI Revolution in Entertainment One Year On01.png]] ### 세션 소개 - 이 세션은 AI 혁명이 미디어 산업에 미친 영향에 대해 논의하는 세션으로 각각 참여자는 다양한 분야에서 AI의 활용과 문제에 대해서 논의하고 있음 - 발표자는 Bill Baggelaar(Media Technology), Rick Hack(Intel Corp), Melody Hildebrandt(Fox), ㅗ Scott Rose(VSI)이며, ISO/TC 36의 Principal을 담당하는 Andy Maltz(General Intelligence)가 모더레이터를 맡았음 ### Intro(Andy Maltz) - AI 혁명 vs 진화 - Open AI가 ChatGTP를 발표한지 17개월이 지난 현재 시점에 미디어 산업에 미친 영향을 논의해볼 필요가 있음. AI는 현재 미디어 제작 파이프라인에서 역할을 하지만, 또 일부에서는 이런 역할을 하지 못하고 있음 - AI가 실제 미디어 산업에 혁명을 미친 기술인지 또는 지금까지 꾸준히 발달해온 미디어 기술 진화의 한 부분인지에 대해서 생각해볼 필요가 있음 - AI가 기술 변화에 한 부분이라는 설명은 미디어가 필름에서 디지털 영사기로, 2D에서 3D로, 모노 사운드에서 Immersive digital soud로 발전하는 이 과정을 보면 AI도 제작 파이프 라인을 자동화하는 기술로서 진화의 단계에 등장한 기술로 이해할 수 있음 - 이러한 관점은 AI가 혁명이라는 관점을 완화함. AI가 혁명이라는 관점에서는 AI가 미디어 제작의 패러다임을 바꾸고, 심지어 미디어 자체도 AI가 직접 만들게 됨으로써 수많은 일이 AI로 대체될 것이라는 급진적인 시각을 내포하고 있음. 그러나 기술 진화 관점은 이러한 시각에 반론을 던지며, AI를 다양한 흐름 속에 자연스럽게 나타난 기술 진화로 설명함 - Hype Cycle - Andy는 현재의 AI 발전 상황을 이해하는 프레임으로 Hype Cycle을 제안함 - Hype Cycle은 기술이 촉발되고 난 이후, 이 기술에 대한 기대와 환상이 부풀었다가 꺼져가면서 다시 산업 전반에 안정적으로 정착하는 주기를 5단계로 구분한 그래프임 - Gartner에서 발표하는 Hype Cycle은 투자자들에게 시장 상황을 설명하기 위해 제공되는데, 현재 AI로 촉발된 혁신이 무엇인지, Generative AI가 어떤 단계에 있는지를 확인할 수 있는 프레임으로 유용함 - 각각이 기술들은 Plateau라는 안정 단계로 진입하는데 걸리는 시간을 표시하고 있으며, Generative AI는 향후 5년에서 10년 정도가 걸릴 것으로 예상하고 있음. 이러한 설명에서 주목할 점은 현재 Generative AI가 다소 부풀려진 단계에 있으며, 아직 산업 전반에 안정적으로 정착한 단계가 되기 전이므로 과도한 기대를 경계하고 조금 더 현실적으로 바라볼 필요를 제안한다는 점임 ![[hype cycle for artificial intelligence 2023.png]] ### **What if we didn't call it AI?**(Bill Baggelaar) - AI 기술론자 - Bill은 AI가 단순히 기술에 불과하며, AI라는 용어 자체가 불러일으키는 사회적인 이미지, 이슈 등을 배제하고 바라보자는 주장을 함. 가령, AI가 인간의 일자리를 빼앗는다는 이미지와 같이 불안감을 조장하는 느낌보다는 단순히 기술로 바라보기 위해 AI라고 부르지 말고 기술로 부르자고 이야기 함 - Generative AI는 미디어 산업에서 작업 방식을 변화시키는 하나의 기술로, 이전에는 없었던 새로운 기술로 바라볼 수 있음 - 기술로서 AI - Bill은 딸이 연필로 그린 개구리 이미지를 사진으로 찍어 Stable과 Adobe의 FireFly를 활용해 고급스럽고 창의적인 이미지로 발전시킨 예시를 보여주었음 - 이 과정에서 Bill은 그림을 그리는 능력이 없어도 충분히 이러한 이미지를 만들어낼 수 있다는 점과 이 기술을 활용하기 위해 큐레이션과 창의력이 여전히 필요했다는 점을 설명함. - 또한 이 기술의 문제점도 지적하는데, 생산해내는 이미지에서 일관성이 없는 점을 꼬집음. 그러므로 큐레이션이 필수적이지만, 큐레이션을 통해서도 일관성을 만들기는 어려워서 실제로 전문가가 필요한 순간은 이런 일관성 있는 작업을 할 때임 - 결과적으로 AI 도구에 대한 가능성과 한계를 명확히 이해하고 기술로서 AI를 현실적으로 활용할 필요가 있음을 주장함 - AI의 미래 - AI의 도입과 관련해 사람들의 일자리 대체 논란에 대해 언급함. Bill은 AI가 창작과정을 돕는 기술로 활용될 것이며, 이러한 기술은 과거 사례를 보았을 때 더 많은 콘텐츠와 일자리를 창출했었다는 주장을 함 - 가령 AVID의 편집 프로그램은 NAB에서 최초로 공개가 되었는데, 90년 후반 많은 사람들이 AVID의 편집 프로그램을 보고 일자리가 사라질 것이라고 우려했음. 그러나 현재 콘텐츠 산업은 더 커졌고 더 많은 일자리가 생겨났음 - AI의 도입 또한 산업 발전을 이끌어 갈 것이며, 우리는 예전부터 미래를 예측하는 것을 잘 하지 못했기 때문에 AI의 미래에 대해서 비관적인 생각보다는 기술로 활용하는 낙관적인 전망으로 바라볼 것을 강조하였음 ![[AVID Media Composer.jpg]] ### Freedom of Choice(Rick Hack) - Intel 기반 기술 - Rick은 Intel이 가진 기술과 솔루션을 소개하는데, Intel 기반의 AI PC를 비롯해서 사용자가 클라우드, 온프레미스 등 다양한 솔루션을 활용해 콘텐츠를 만들 수 있음을 강조함 - 강연의 제목인 Freedom of Choice는 다양한 솔루션과 기술을 통합된 플랫폼에서 활용할 수 있게 될 때 사용자가 선택의 자유를 얻을 수 있다는 의미와 자신이 원하는 것을 창조하기 위해 여러 AI 기술을 활용해볼 수 있다는 점에서 구성한 것으로 판단됨 - 한편 Intel은 2만여명의 소프트웨어 개발자를 보유하고 있으며, 하드웨어 외에도 이러한 AI 기반의 소프트웨어 솔루션을 개발하고 있음 - 특히 AI 솔루션을 Intel의 하드웨어와 통합하여 제작함으로써 Apple과 마찬가지로 하드웨어와 소프트웨어의 강력한 통합을 바탕으로 AI 작업을 가속화할 수 있는 솔루션을 만들어내고 있음 - PostProduction 활용 - <The Addams Family 2> 애니메이션 제작시 렌더링 과정에서 노이즈와 픽셀 변형 문제가 발생했음. Rick은 이 문제를 AI를 활용해 제거했으며 25% 정도의 렌더링 및 시간 비용을 줄일 수 있었다고 설명함 - Open Image Denoiser라는 이 솔루션은 Inel CPU를 대상으로 개발되었으나 현재는 AMD, Apple 등 모두 지원하고 있음 ![[Open image denoiser.jpg]] - Deepfake 방지 - 선거 시즌에 정치인들을 대상으로 Deepfake 영상이 나타나고 있는데, Intel은 비디오를 통해 혈류, 눈의 움직임, 전체적인 움직임을 통해 Deepfake를 탐지할 수 있는 소프트웨어를 제공하고 있음. - Deepfake 감지 시스템의 문제는 실시간으로 감지가 어렵다는 점인데, Intel의 FakeCatcher는 세계 최초로 실시간으로 감지하며, 최대 72개의 동시 실시간 감지 스트림을 실행할 수 있음. 정확도는 96%에 해당함 ![[fake catcher.jpg]] ### How We Thrive it with AI?(Melody, FOX) - AI의 뉴스 사용 원칙 - Melody는 AI의 학습에 사용되는 데이터로서 뉴스 콘텐츠에 대해 명확한 소비와 상업화 원칙이 필요함을 중요함 - 미국 언론사들은 OpenAI를 상대로 뉴스 학습에 대한 사용료를 요구하고 있으며, 이러한 맥락과 유사하게 뉴스 콘텐츠에 대한 사용 원칙을 정하여 제작자의 권리를 보호하고 데이터 오용을 방지해야 한다고 주장함 - AI 모델에 대한 언론사의 역할 - 뉴스 콘텐츠가 AI에 의해 학습되는 순간, 사용자가 해당 콘텐츠를 프롬프트를 통해서 다시 확인하더라도 그 맥락과 출처를 쉽게 잃어버리게 됨 - AI는 뉴스 콘텐츠를 조합해 없었던 사실도 만들어낼 수 있게 되는데, 이러한 정보에 대한 진위 여부를 소비자가 판단할 수 없음. Melody는 이러한 상황을 "The Age of Disinformation"이라고 표현함. 이 시대는 5년에서 10년 사이에 도래하고, 이때 80%의 인터넷 기사는 AI가 작성할 것임. - 따라서 Melody는 AI의 모델링에 뉴스 콘텐츠 제작자인 언론사가 주도적인 역할을 해야하며, AI가 뉴스를 소비하는 방식에 대한 가이드라인을 설정하고, AI 모델이 사용한 원본 콘텐츠의 맥락을 보호함으로써 콘텐츠의 의미와 신뢰성을 회복시켜야 한다고 주장하였음 - 이러한 과정에서 뉴스 콘텐츠 제작사에 대한 정당한 보호와 보상이 필요함을 강조하였음 - Verify 프로토콜 - Fox에서는 Verify 프로토콜을 통해 디지털 콘텐츠를 실제 소유자에게 연결하여 콘텐츠의 가짜 여부, 소유권자 확인이 가능하도록 하고 있음 - 가령, 기사가 발행되면 기사는 Verify 프로토콜을 통해 기사의 발행처(Fox)을 확인할 수 있고, 소비자가 이 콘텐츠의 발행처 및 진위를 확인할 수 있게 해줌 - 이러한 방식을 통해 AI와 뉴스가 함께 공존하고 번영할 수 있음을 밝히고 있음 ![[verifiy protocol.jpg]] ### Localization Framework(Scott) - Locailization 개요 - 영상 콘텐츠의 현지화(Localization ) 작업은 문화적 맥락을 고려하여 변환하는 것으로, 글로벌 시장에서 수익화를 위해 필수적인 작업임 - Scott은 VSI 회사를 통해서 200,000시간 분량의 콘텐츠를 다양한 언어로 로컬라이제이션을 수행하고 있으며, 이러한 작업은 단순한 번역을 넘어 텍스트, 오디오, 이미지 변환, 맥락 고려 등 다양한 요소가 포함되어 있음 - Localization AI 기술 - 자동음성인식(ASR): 영상 콘텐츠를 입력 받아 오디오 정보를 텍스트로 변환함 - 번역: 텍스트를 목표 언어로 번역하며, 이때 기계번역, 대규모 언어모델, 신경망 번역 등을 활용하여 정확도가 가장 높게 번역해냄 - 더빙: 번역된 텍스트를 TTS 기술(텍스트 to 음성)로 변환하여 음성으로 만들고, 이 음성을 다시 STS 기술(음성 to 음성)로 변환하며 이 작업 과정에서 원본 음성과 유사한 성우의 음성을 입히거나 유명한 현지 배우/성우의 음성으로 작업함 - 조정: 애니메이션과 같은 콘텐츠는 더빙 작업에서 AI를 사용해 캐릭터와 음성 더빙의 싱크 문제를 해결할 수 있음. AI가 번역된 대사에 맞게 캐릭터의 입술 움직임을 조정(애니메이션 Adams Family2에 적용해봄) ![[AI Revolution in ENT one year on_22.jpg]] - 콘텐츠 가치 스펙트럼 - VSI(VSI Group, Vocie & Script International)는 글로벌 미디어 로컬라이제이션 회사로, 이 회사에서는 콘텐츠에 적용되는 로컬라이제이션 AI 기술을 콘텐츠 Tier별로 구분하여 적용하기 위해 콘텐츠 가치 스펙트럼이라는 프레임 워크를 제시하고 있음 - 이 기준에서 Tier 4는 기술적으로 로컬라이제이션이 가능한 콘텐츠로, Supplier 입장에서는 누구나 다 접근할 수 있는 장벽이 낮은 등급임. 이러한 콘텐츠로는 뉴스, 스포츠, 라디오가 있으며 정보 기반의 라이브 콘텐츠가 해당함. - Tier3는 소셜미디어에서 주로 만들어지는 콘텐츠로, 창작-숏폼 영역에 해당함. 품질보다는 양과 속도가 더 중요함 - Tier2는 정규 프로그램으로, TV프로그램, 중간 예산 규모의 드라마 시리즈 등이 해당함. AI로만 만들 수 없으며 인간의 Quality Control이 개입되어야 함 - Tier1는 영화, 오리지날 시리즈 등 고품질 콘텐츠로 AI로만 제작할 수 없으며 인간 능력의 높은 개입이 필요한 콘텐츠임. - Scott은 현재 AI 기술이 주로 Tier2, 3까지 근접해 왔으며, 향후 Tier1 콘텐츠에 대해 적용되기 까지 2년에서 5년 가량 걸릴 것으로 전망했음 ![[AI Revolution in ENT one year on_26 1.jpg]] --- ### Intro - 파이어 호스를 마시는 것과 같은 AI 기술의 상황(많은 변화를 제공) - 가트너의 [하이프 싸이클](https://www.gartner.com/en/articles/what-s-new-in-artificial-intelligence-from-the-2023-gartner-hype-cycle) 표로 AI의 발전 상황을 이해할 수 있음 ![[hype cycle for artificial intelligence 2023.png]] ### What if we didn't call it AI?(Bill) - AI 낙관론자임 - AI는 그저 하나의 기술에 불과하다. 제작 현장에서든. - 스테이블 디퓨젼, 파이어 플라이를 통해서 딸이 그린 그림을 계속 발전시켜서 멋진 프로그로 보여줌. - 그림을 그려도 전부 다 내가 원하는대로 할 수 없음. 사용하는 방법을 계속 알아야 함 - 지금은 소라가 통으로 이거 어때 하고 콘텐츠를 주고 있음. 일부를 일관성있게 수정하고, 생성하는 것은 어려움 - 프레딕팅 퓨처 - 우리는 미래 예측을 못함 - 이 기술이 우리에게 어떤 영향을 미칮리 모름. 기술의 발전, 필름부터 컴퓨터까지, 어떻게 우리의 일상을 바꿀지 우리는 예측하지 못했음 - 아비드 미디어 컴프레서가 나왔을 때, 그 이후에 어떻게 컴퓨터가 리니어 편집을 바꿀지를 아무도 몰랐음. ### 선택의 자유, 소프트웨어 전쟁(Rick Hack) - AI가 이미 우리가 알고 잇는 툴에 연결될 수 있을 것인가 - 노이즈 문제 - 영상에서 노이즈는 시간과 예산의 문제를 발생시킴 - AI를 활용해서 25% 의 렌더링 타임을 줄일 수 있었음(인텔 CPU활용) - 업스케일의 방법 - DL 기술로 DL을 하게 되면 비용 절감 - Deep Fake Detection - Intel Fake Catcher: 96% 정확성 - 릴 타임으로 인지 ### How we thrive it with Ai?(Melod, Fox) - 수퍼 AI 낙관론자임 - 어떤 미래를 우리가 보고 싶은가, 콘텐츠 크리에이터로서. AI와 함께 - 커머셜 문제 - 오늘의 탐 뉴스를 보여줘 - 리얼타임 뉴스를 보여줌. 오피이니언 섹션을. - 우리의 데이터가 파운데이션 모델에 활용되었음 - 팩처링 되고 난 기사 하나는 컨텍스트를 잃어버린다. - 신뢰. 기사와 소비자는 폭스를 통해 신뢰를 확보하고 글을 읽었다 ### Localization(Scott) - 텍스트 사이드 - 자연어를 배운다 - 오디오 사이드 - 텍스트 투 스피치(내 목소리를 클론으로) - 스피치 투 텍스트 - 이미지 사이드 - 립스 싱크 - 이런 기술이 대단한 기술이다. - AI를 활용해 생산성, 창의성을 늘려도 비용이 발생 - 오토메이티드 더빙 - 자동화된 방식에 사람이 QC로 들어가 있음 - 오리지날 콘텐츠를 번역을 통해 로컬라이제이션 해냄 - 티어별 AI 기회 - 티어 4: 기회는 높지만, 기대는 낮음. 낮은 수구준의 번역이기 때문에. 뉴스, 스포츠, 라디오 등 - 티어 3, 틱톡, 유튜브, 팟캐스트, 오디오 북 등(숏폼) - 티어 2: 정규 프로그램 - 티어 1: 영화, 오리지날 시리즈, 프랜차이즈 등 - 티어 1원은 탤런트가 필요하고, - 우리는 현재 티어 4, 3까지 커버하고 잇음 - 내년에는 티어 2, 티어 1가지 더 발전하게 될 것으로 예상함 ### QnA - 인간대체가 아니다. 더 하이얼 클리에이티브 한 일을 하도록 우리의 역할이 바뀔 거다. - Ai 접속에 대한 민주화(데모크리테이션), 크리에이터가 더 많아질 거다. 데모크리테이 될 거다. 티어 3에 있는 사람들이 자신들의 아이디어로 티어 1만큼의 좋은 콘텐츠를 만들게 될 거다(Fox) - 크리에이터들이 여전히 툴을 활용하더라도, 그 콘ㅌ네츠의 퀄리티에 대한 책임을 지고 아웃풋을 만드는 역할은 있을 거다 - AI가 만든 콘텐츠 그 자체는 소비자를 미스리딩할 수 있다, 크리에이터의 퀄리티 컨트롤이 중요하다. - --- Are we ready to go or we're gonna wait a few minutes? Thank you. Thank you. You, I'm ready to go. No, mas is for you. Lot of times a day it was that, are you having a good show so far? We're on the subject. Ok. I think here. Thanks. It's not, but he's away that blessing. We went out last night for the get. That wasn't any better. There was a part. Yeah, that no. Oh, all right. I think we're ready to go. You go. Good morning, everybody. Uh Welcome to the session. I'm Andy Waltz. Uh I worked in media and entertainment technology for almost as many decades as I can count on one hand. And I'm honored and excited to be a moderator for today's session A I one year on. We're paraphrasing the session description that's online. ==It's been about 17 months since open A I turned the world upside down and we're fortunate to have this panel of senior media practitioners help us understand where A I is got its place where it hasn't in media making pipelines.== So this is a what's real session covering things that work that don't work. They work soon and maybe somewhat further around the corners uh from a number of protective. All right. So if you're here, you probably brought our Panelist by us. So I'm gonna go ahead and give a brief introduction to our stars that need no introduction. First, we have Phil Dar Hill is the former Chief technology Officer at Sony Pictures Entertainment, where he led research and development efforts and led to emerging technology. It helps to shape the future of cloud based production, post production and delivery of creative content. Bill currently serves as co-chair of the Academy of Motion Picture Arts and Sciences Science and Technology Council and also serves as a co-chair of Intelligence Academy Generative A I Summit. Then we have Rick. Pat. Rick is in sales liaison for the media and entertainment industry pursuing transformational tech based partnership relationships where he leads groundbreaking projects including envisioning entertainment experiences inside autonomous vehicles, delivering location based experiences and generating creatures, characters and digital twins harnessing the power of A I and ML across a number of major studios, broadcasters and theme parks. Next we have Melody. MRE Melody is Chief technology Officer for C Corporation where she sets the comprehensive technology strategy for the company leading development, design and implementation, emerging technologies across the Fox enterprise spanning Fox Sports, Fox news, Fox entertainment, Fox television stations and TV Media Group. Our current focus is on future planning including developments in artificial intelligence and authenticating and monetizing premium content via Blockchain technology. She also continues to oversee the cybersecurity posture of the business that leads technology m and A efforts, identifying areas for investment and growth. And last but certainly not least we have Scott Rose and Scott is the chief technology officer at V SI A world leader in media localization. He's responsible for the company's operational and technology roadmap as well as its R and D vision covering the global supply chain, media operations, hunt and security, and the viability of A I in the creative space. So we can plug later for that. All right, let's introduce you to our panelists. So please raise your hands. If you're a filmmaker of any sort, I'm the camera in front of the camera, uh technologist. OK. Educators, I put that now you there some other category I haven't called out yet. OK. We have the other, the other c so uh hopefully we'll have time for questions. So please listen carefully to all the presentations. --- So before we hear from our panelists and I promise I will stop talking soon. I'd like to get so set some additional context. ==So the A I revolution really is a lot to take in multiple A I news stories every day. New product introductions, it's seemingly the same frequency, same for the, for A O I by newsletters podcasts and youtube channels. It is like drinking from a fire but is it really a revolution or is it another step in the century plus long evolution of media technology tools meets and everything.== Now we've been through this before. It changes for a long time. I'll use the actual motion pictures as an example. ==Change shows up in all aspects of production and or for exhibition uh film projection to digital projection, monoral analog sound to fully immersive digital sound. Uh 3D, you can capture digitally and project digitally.== So it's not quite so painful to watch. And I'm not sure about this or waiting to see that. And then in production, we've seen it there too. From film capture to digital capture, from analog vinyl recording to multi track, digital onset and then in visual effects from photochemical mechanical visual effects to fully digital magic. So this is not like that. I think that's pretty clear, right? Um Innovation triggered by generative generative A I machine learning and related technologies sure seems like everything everywhere all at once. So this eye chart um don't take this to the gospel. I put this together for a workshop on A I standards last December, it has about 100 entries and it was out of date the day I gave the presentation and I think the number of entries and this covers schools across all aspects of content creation and distribution and some of the foundational technology and the number of at least 20% since then. So let's um we gotta go backwards. Um So how do we wrap our heads around all of this right. So ==the hype cycle curve developed by the research and consulting firm Gardner is a useful lens to look through when trying to make sense of new technologies.== ![[AI Revolution in ENT one year on_06.jpg]] Think of it as a timeline, the line slide around depending on the status, the color dots indicate how long it will take to be fully actualized. And there are five phases to the curve. ==The innovation trigger is where new technology is introduced, sparking interest. The peak of inflated expectations, early publicity generates over enthusiasm and un emerge the trough of disillusionment where technology fails to meet expectations and disillusionment sets in the slope of enlightenment where more practical applications are discovered and the technology's potential becomes clearer. And finally, the plateau of productivity where the technology becomes widely adopted and its true value is recognized.== Now notice how cram the first phase is, the innovation triggers it as it is with so many A I terms you may have heard and nothing has made it to the plateau of productivity yet. So real quickly, just focus on a few of these uh put this all in context. So generative A I hyper peak of expectations. ==That's where the hoopla is. Uh artificial General Intelligence. I don't think we really have to worry about that.== There's humans too much way down at the bottom. First principles of A I that really, ==that's an innovation trigger==. It's kind of foundational, don't you think? And uh A I maker and teaching kids. That's why I asked about educators, right? That's in a sorry state. This is how we're going to educate everybody. And that's really the point of this session today is to help with education. But there are some key pieces that help make it work like A I services, the gabling that's foundational tech that you need to actually make this work in a cost effective manner. All right. So with that, um we're gonna get to our opening remarks for each of the past. So I'm gonna give this a shot here. Control F five. Is that what it press? Is that fine? Escape? You know, that one control A I think I would need the tech expert here to get you out. What about that folks? Well, Marcus rate, there we go. So we got on. So and yeah, it was going all right now, I think, I think all of everything that is, there's a name you do. How is it going? I know. I know. Ok. --- #### **What if we didn't call it AI?** Hi, everyone. Thanks for being here first. Let me say I'm a technology optimist. And uh I, I think that, um you know, any introduction of technology uh can be disruptive and really one of my points I want to get across is ==what if we didn't call this A I because this, you're gonna hear some, some further conversations about potential societal issues with A I obviously that's, that's gonna become a much bigger thing. But when we're talking about generative A I for the film and television industry and the disruption that it's gonna cause to, to us, it's just technology, right? I mean, it's something that comes along that is going to change the way we work.== This happens to be different to Andy's point about the number of, of technologies that are coming along as well as all the different disciplines uh within the industry that can be disrupted simultaneously or at least in a rapid succession. So I'm gonna dive in a little bit here as an example. Next slide play. Next slide. Would that be me? All right. In the past, manually, you can advance to the first lot. Then the quick, don't go back to this second part, man. We on the house white foot for right. Well, you should have called me and I know that's what we're gonna do. You see you see any an appointment on there? Very. All right. This is just a by way of an example of something that I'm creating something that I can't draw to save my life. But my daughter drew that first picture. I have a company called Rocket Frog. So the idea was what would, what would a lo for rocket frog look like? And she said, oh, I have this idea that she dr drew this little thing, ==I put that into a stable diffusion. I put it into a firefly.== And literally, let's see if this works. So that was what she drew. Then you have a rabbit hole if of prompting and, and, and working with these tools. It's not a simple process and you get all sorts of strange things. This is 100 images that I spent time. So I'm trying to manipulate, try to go down and, and, you know, finagle things and change this change. That it's fascinating. I can, I can create something that I could never draw by hand. And that was actually the final one that, that my family loved. And then I was like, but I don't want to get rid of that, that portal on it. And it's like, well, there's no way to say I'd like that but remove this, right? So I have to manually. But my, ==my point is these tools are not, they're not just tell it what you want and you get what you, what you get something that you potentially like. There's still a curation, a creative process. You have to go through to actually figure out how to use these along comes.== So, right, we talked about chap GP T coming along last year. So kind of blew everybody's minds uh in February when it was, when it was launched. And now there's this uh Air P Short that, that really exemplifies like, hey, if I've got an idea, I can do, I can do amazing things. I can create some really cool stuff, but this is not easy this is this and the filmmakers have talked about it. It's like this is a new tool in their toolbox. But the amount of time and effort that it took to create this short is, is not something that, you know, the faint of heart would, would, you know, go down, right? ==Because you don't have temporal consistency, you don't have spatial consistency, you're trying to manipulate things, how much hand manipulation did they have to do after the fact to make things look consistent.== And there's a lot of inconsistency in it as it is. But from a, from a filmmaker tool perspective as we start to develop better controls over these things, as it starts to figure out as, as we start to be able to communicate with it as we would a human like I like that, but just change this one thing. That's great right now, you're just getting the holes, you know, you like this. How do you like this? Uh Well, here's another thing if you like that, you know, it doesn't necessarily mean that they all grow in. So the disruption I think is, is um it's, it's not as daunting today. Obviously, we have some up a path and we'll be talking more about that where there's future possibilities, but ==this stuff isn't taking over people's jobs in, in so far as creating content and and how it will become part of the, the cool, the cool process.== Um The other thing I wanna talk about was our ==predictions of the future==. So how we actually see technology and ==when we implement technology, we're not really good at predicting the future.== You know, we, we, we get very uh panicked over, over these types of disruptions and there's always a tendency to overhype and underestimate and as well as, and underestimate the possibilities of what things will do in the future. Um And so, you know, I've said flying cars anyway, you know, how long have we been promised flying cars? Um It's not easy, right? And, and a lot of times these things take a long, long time to actually get into these things are being uh evolving very well, but it's very, very difficult to, to understand or see the actual impact of technology on our, on our industry and on labor. And so by way of an example, I'll, I'll quickly get through this. Um you know, how, how many people here edit there, there are some filmmakers, how many people edit their films on Moola or 10 or a steam bag? Yeah. One. OK. So, so, you know, obviously there was evolution there and, and then along comes a right and there were others, there were division lightworks, other digital nonlinear editing systems at the time, the early days. And at the time I was actually involved in helping editors to adopt this new technology. And by 1995 M most major films were being cut on the app kind on an added media composer as well as other systems. But what, what at the time to almost to an editor they were complaining about, I'm not gonna have assistance. I'm not gonna have help. I'm not gonna be able to um they're gonna expect so much more out of, out of me ==as an editor because now I have all this power in my hands and the reality is they couldn't see 30 years on now the explosion of content, the number of editors that are actually editing content, the number of people that are actually involved in this process overall has grown tremendously.== But you couldn't predict that years ago and I get that. But, but ==the challenge is that we always tend to, to worry about jobs going away rather than jobs changing== and, and, and, and I know that can be scary to the person who is actually having their job change. I, ==I totally get that but we evolved as an industry, we evolve in the things that we do==. We tend to create more, more opportunities and more jobs and hopefully better quality jobs. So, yeah. All right. Well, thank you. --- #### Freedom of choice(Rick Hack, Intel) Now for that high level overview. Uh Now we're going to do a little bit of a but they have a three level. Um Yes, I like what you're saying though. OK, the opportunity jobs are still there because you're gonna get to a certain point or it gives you the variety of choice within your environment. Expand on weather piece of the store people to do. I think so. When we talk about, we talk about environments, we talk about software. Do you think that software? First of all, if any is anybody out there a devo fan is anybody? But the deep? OK, you might know the song with it, but maybe freedom of choice wasn't on the top of your list. But then ==freedom of choice== is what you want, right? ==You want to be able to create your content where you want it, when you want it, how you want it.== If it's on, if it's in the cloud, if it's on Prem, if it's on your uh newly launched uh Intel based A I PC that just launched in C um any anywhere you want, anywhere you want to have that cut, ==it wouldn't be great to have a software that comes across everything that gives you that freedom of choice, that flexibility to run those workloads where and how um also you have applications, the applications that you're used to running and can you have those tools be integrated into the tools that you already know? So those tools are that much better and use of use.== So I wanted to set that up, set the, set the stage of what I want to talk about in a couple of frames. And I wanna get to the conversation that I, I can talk about beyond just generative A I because I think the conversations around A I, what's real today, move forward. Sorry. What do you mean? I mean? So yes. So what are those tools um that we're thinking about that that are available today or should we created over the past year where we're seeing some of this stuff go tomorrow. So next lunch fucking. So one of the things that um in post production process when it comes to rendering and as you go through these iterations, whether or not the example that I'm showing here is animation, but you actually can do it with live action. And that boundary box is around an area that um as a result of rendering created a lot of noise and pixel and variations of life. So we've got things that are happening as a result of the technology and the tools that you're given that create new problems. So how do you solve some of those things? How um and we work with cytic companies that's out of out of Canada that has multiple V effect shops and about six different the effect shops. And they do movies that you probably this is a a scene from the uh the Adams family too. ==You go to the next um like, oh yeah. So um you can see how that boundary box in that area that happened as a result of before render the after render where you see the cleanup happening now we're talking about cost saving.== So maybe 25% of what they've seen in render costs previously and, and the time savings. Um and again, going back to the flexibility of my very first slide this initially Intel designed for CP US. Now you have a software, a tool that supports any given architecture, let on one on apple, run on any given GP U and you, you got that cost savings there. Um And then another point around integrating this into the existing tools that you have, whether it's arval, whether it's blender uh unity uh va So um I thought this was where, where, where is he, where, what's happening right now and how it's being adopted. Um Something that we're demonstrating at the Amazon uh excuse me, the Aws Booth, I think it's in uh for call center like restaurant, restaurant. So as as everybody goes, the rise of fast channels, there's, there's so much content that's being uh placed out there on these channels that for personalization purposes, everybody's got a different fast channel for things that are targeting audiences. So um a lot of that content is lower res and the cost of doing that, the low complexity upscaling methods that, that we have uh can introduce a lot of different types of artifacts. But the deep learning models are pretty expensive. So how can we reduce the cost of doing some of this work and where you have content that probably would never see the light of day. Now, if it's not gonna go through, say the mastering process, which you know, is extremely tedious cost and costly, can you get approvals to the point where you can approve a piece of content on multiple say 100 episodes of like nightcore? And you can actually put something up that's worth uh doing the work with and having these tools in the eye that allows you to do things that are cost effective that then um are reap the benefits of say a license in multiple territories. Uh The last thing I'll talk about and I think um Melody is gonna talk about it in a different aspect is around uh deep data protection and something that we created, believe it or not Intel is what has always been known as, as being the hardware company. We're, we've got 20,000 software developers. One of the things that we've done is create this deep data detection as a service. We're piloting this this year working with a couple of studios and you might even see something coming up at I BC. ==So everybody knows we're in election year. You think videos are growing? Absolutely, they grow. And this deep detection software allows you to look at blood flow of, of a video of an individual and um natural movement, movement, eye games and everything to, to say the likelihood that you find that video that you're watching is real or fake.== ==What's the likelihood of that or has your stream been compromised? This is real time being able to know that a broadcast while somebody is just unfortunately compromised our, our, our strength. And so how in real time, you know, to get notifications that, oh my gosh, we've got something else that's going on here.== Um, but, you know, and knowing that journalists also um have the ability to put for truth in their, in their journals and that the videos that they receive and the like and creating a story, what they're delivering is ultimately going to be something that's valuable. So those are the three things I wanted to talk about. And I think that's a great segue into what Mellie's gonna talk and that awesome, well, --- #### How We Thrive it with AI?(Melody, FOX) like Bill, ==I would character myself as a technology optimist, a super A I optimist.== Um And, you know, generally, ==I think there's no more exciting time to be involved in technology and media.== Um The, and, and even as you think about kind of exposure of large language models, ==I'm super optimistic about how they can be used within media workflows.== I think the industry, us as a creative um the creative industry that's actually originated, the content should be pretty opinionated though that if you core principles. Um so we can really think about how we can thrive in that era. ==And those principles are really about how our data is consumed to be used in large language models for training also how our data is commercialized by those models in actual applications.== ==And there's a moment I think really for us as an industry to think about how we can help define the architecture of the future as opposed to waiting for big tech to tell us how we are going to participate in their models in the future, which I don't think is going to end the way that potentially we create the future that we can actually want to see.== And that would allow us to really thrive as a content creator. Uh So the technology I'll be talking about a little bit is kind of kind of a first view into what's some of the architecture that ==we as content creators can put forward to define some of the guard rails about how our content can be consumed into these large language models.== And then how does that foundation really allow us even as creatives to then have the confidence to use these models in the enterprise and get the outcomes that we want? This is my favorite um that all of this is seen and the I think the consumer problem as Rick was alluding to is kind of very well understood. We essentially have pushed to lead the world, have pushed on to consumers, essentially all the responsibility to determine what's real and what's not. And ==consumers really today don't have the tools I think to be able to actually interrogate that in an effective way.== Um And what that kind of leads to is a parallel commercial problem, ==which is how is data used um within these models and how in, in A I models and how are they commercialized?== So this is I wrote this to chat T BT two days ago and my slides were, so you have uh this were the top news stories of the day. So I think, you know, when you think about large language model often and you know, the the line is OK. Well, t==hey were last updated, 54 last updated April 2023 doesn't no data since then.== But what we see is actually in this, you know, for the tech people in the house who raised their hand on what's called retrieval deer generation. But ==you use large language models to interrogate real time data, you can see the commercialization of real time news within these platforms.== Um And these platforms are obviously opinionated. I mean, this is a selection of new stories that the large language model chose is obviously large language models are nondeterministic. Anyone asking this question is gonna get a different set of responses. That's part of the amazing thing of large language models. You know, if you ask, we could all ask it to create a Japanese Haiku for us and we'll all get Japanese Haiku. It's like absolutely amazing. Um ==In the case of news, you might have a different paradigm though, in terms of grounding and what sources you actually want a model to pull from.== Um And so this is what I consider commercialization of our content. It's not just that our data from content creators has gone into the foundational training of these models. Um on the quest for A G I that you alluded to, but also on a day to day basis, ==our data is being commercialized within applications that are built on top of these models.== ==And I really think we should be opinionated with the content, creative community about how our data can be used in these models.== And that will also allow us to be able to use them more confidently ourselves. So verify us, you know, a protocol that we've released, it's open source um and free to use for the community. And ==the the concept here is that there's the one of the key concepts we think to be able to solve this consumer problem is that you need to have a moment where upon publication of a piece of content, you can bind that digital piece of content to its real world owner.== When Fox publishes a piece of content, we can essentially establish ownership of that moment. And that also allows them when that content is used downstream for a consumer to be able to validate that it actually comes from a publisher that they trust. And that's I think ==one of our core thesis about the age of disinformation is that I think the estimates are now five or 10 years, something like 80% of the internet is gonna be A I generated.== So how is the consumer gonna wade through that? They're likely gonna pull the job on the publishers that they trust to help them navigate that information space. So again, it's even more important for us to give the tools to a consumer. So they see a piece of content that says Fox News, of course, X did Fox News actually report that. Um So that's one of the kind of core features of having this constant cryptographic signature is another piece of content to um the owner that actually stands behind it. And this, you know, is a concept of provenance. So you you can kind of ==work backwards from, you know, piece of content goes into a large language model factory comes out the other end in some way, how can you actually go back and understand the context in which that original piece of content existed==? So in the case of news, that might be a picture and that was related to a certain conflict, you actually care about the picture with the headline with the text, like all those pieces of content matter together. And that's where the pic the cons of this content graph comes in and that's I think relevant for all kinds of um video content as well. Um The context and the rights associated with that be able to preserve that essentially in code. And then really the final piece of this is kind of how do you then have the licensing of that content to a large language model uh consumer right now, I describe it as very master, right for us right now, in terms of how large language models are taking our content and part of the defense, I think as well, how else are we get it? You know, and I think you say here's the Apple Music um to Napster, right? We, we want to, we think we should all participate in this ecosystem. You wanna be in the results of what happened in yesterday's news, if you're the news organization, right? I think through litigation is not the only way to handle this problem. We can also think of it. ==How can we put the guards around our con so we can participate in this ecosystem can appropriately compensated for that and define what that future is.== Um So this is the protocol I would love to talk to you about. Um That's been an open source out there uh that, you know, for publishers and A I companies are consuming now and we think about it as well where and the final piece I'll say is like, ==how can we with confidence, use large language models in the enterprise==? ==You know, it's probably not a great idea to take kind of a raw foundation model and immediately put into production in your enterprise.== Um there's a lot of um what competence are the model inputs? Like what were the inputs that went into that model? How is that model trained? How is it instruction to these are all nuances that really matter in production, you know, as opposed to like some of the maybe experiments that are fun, they can kind of see if it of production. We wanna have a lot of confidence about inputs into those models. ==And we think this is one of those kind of paved paths that can allow us to establish that.== That's it, that's great. So a lot of a lot of big issues about authenticity and confidence and reliability and uh requires just to have a conversation about all of this. --- #### Localizaion Framework(Scott) All right. So um here we go to Scott, who's gonna talk about localization. And uh on the audio side, one of the things we would like to say the sound is half the picture and it's more than sound too. So I can thank you so much. Um How many people not know what the localization is or familiar with that? We're working, we had a session. Um Look, I mean, it's, it's the ability to create a process after the creative process, right? It is uh taking transforming uh content episodes theatrical, what would they be putting it into a territory or market? Uh And, and it would be a foreign language uh from source to target. ==And this is in, in terms of um A I. Um it is, it is definitely a, a low hanging thing. I would say this is AAA certain target for it.== What I'm gonna talk about is uh sort of give you a bit of an overview and where the specific use cases are and about the, the sort of the industry in general where we think the future is going. So to start with, I wanted to give you Um again, this is from my perspective, this is from someone who works in a for a company that uh does a massive amount of entertainment globalization, that's subtitle, that's dubbing, that's meta data translation. ==And in our world, there's a lot of flags on the map to do 200,000 hours of content across languages.== It is it is primarily achieved through um under an operative facilities as well as partners. ==And I think the interesting question of data, why I'm talking about this is how is this going to change in the future with A I? Is it going to change? I think for sure it's going to change.== But I do think there's a a significant importance to the local market and the expertise in that market, the talent that's in that market to understand how to address uh the content to it, to be successful. So let's start with just some, just some basic. So we the highest, of course, these are most of these are pretty obvious. Um There there's a three pills or the text, audio and image on the text side, we're talking about um automated speech recognition. It's really transcription translation and where LL MS really come into play. ==Um And have a great impact and gonna have an increasing impact is the ability to more actively translate any, any kind uh uh to allow for Indians in context.== Most of the effort to fix uh machine translation is to actually make it appropriate or actually make it make sense. ==Uh not only for the culture but make that content, make sense.== Um As opposed to just translating directly. ==Um You know, top me up, you know, if you're in a bar and if you just translate that in any language, it doesn't make sense. Everyone has their own expression for that.== On the auto side, there's two things really, it's text to speech and most of them are familiar with being able to write out a sentence or paragraph and hit the model and it will speak back to you in different uh you know, you, you get to choose male, female or, or, or different characters, speech to speech is really more about human, to human. ==So if you are, I think if you take uh for example, if, if you wanted to clone your voice, uh so you, you do a certain amount of recording with it and then you say I want to be able to have the same voice but speak German, Italian and French or I wanna, I wanna change that person to male, female or a child.== This is, this is a very, very powerful way to do this and I have some applications in, in our industry as well. I'll talk about on the data side. ==Um I think definitely saw some very, this is where a lot closer to most of that I've been speaking with earlier.== Um On the graphic side, localization also requires that you change image on screen. ==Um And you know, usually it's it's text of graphics, but there is a thing called compliance on the censorship is part of the localization.== So in other words, in some countries, um if you have cigarette smoking or if you have drinking, you have to be able to identify those and make sure downstream they are addressed or either edited out or out or change in some sort of way. ==A I can really help that there's a company called Screw On Trace of Phillis who actually who actually does that uses A I to identify images in, in areas that are concerned.== You could also do this. Another example would be um actually change the image itself as well. A beard to a to a bottled water. I think in the future, this will be much more automated using it. Now, the last piece which is called A I lip sync is really changing the mouth movement and jaw in an image and this is a charting image to adhere to the, to the translation itself. ==What is being what after you've translated, you have an actor that goes in and speaks the new, the new dialogue and the language, the lips don't always match.== We've all seen that and even the best of them in German, French, Italy and Spain, we do this. There are always moments where it's off and this is a, this is a tremendous uh uh uh uh technology to actually solve that problem qualitatively. So I'm gonna go directly in this, in this case, you can read them. But I want to get to the key drivers like the key drivers of, of using A I in localization are creativity and, and quality control. ==I just mentioned a few of those, the ability to DH um an actor like Mark Hamill and Starboard,== uh the ability to uh re uh someone who's passed away such as Andy Warhol Diaries where he's, they were able to record his voice into a model and then have him read his diaries in that documentary. ==Uh And, and so these are creative and, and quality control type uh uh use cases.== But I think the real drivers cost what everyone's looking for is how do we, how do we drive down the cost to shorten the time it takes to localize content? ==And in this case, it's um you could see a little bit more, but really it is about um utilizing actors to be able to do more roles, to be able to just use text to speech, to be able to uh uh replace some of those active recording and just use the, the the models to generate the text.== Uh Yeah, the, the, the voice tracks. So the next question would be um what is it, what is it seven work like so quickly. This is the typical works that I provide. Um This media comes in the door, transcription, timing, translation, adaptation is fitting the text to actually make the uh um the timing work. ==However long a lot of dialogue is you fit the text to it as well as you change the words casting very important part to make it seem similar to the original recording thing on that app where A L and automation comes into play and an automated workflow is you're doing each one of these uh triggering a different, different sorts of technologies with a sr uh speaker identification, generating metadata through uh glossary uh and energy translation of the synthetic voice.== ==This is no human move, but there's a risk to this because if there's any mistakes along the way, they can multiply it across, across the board.== Uh And so I think if you're gonna go down the automate and do it yourself with some of the platforms know there is a risk at, at the moment there are being uh being errors uh when the humans come into the mix. It's really about the QC QC, the transcript QC of translation. Um And then also QC of the final synthesized voice. ==And I would say that the role changes that are coming out um really are gonna be around the translation of QC, the synthesized voice, those will combine into one person to engage the models.== Um And I want to get to the heart of it all really is, where is it appropriate? And I, I took the liberty of creating this thing. ==I call a content value spectrum which is really creating the tears of content.== Um and trying to categorize this content in terms of information based news, sports radio, which also can be model uh pretty short form. You can read those. A lot of this is about content creators and social media. ==Um And then the, the tier two being standard program, most of content that we see and we entertain it is this category and the higher category really is high value con theatrical virtual series of franchise.== ==What's important to know is that when you use in particular, the double space, when we use uh A I, you have to know your content because it doesn't, it's not all equal across the board.== I also wanna call, call out a few items such as um a description and games, uh a description in has a huge value um or A I DE to address a description. Uh Games is A is a bit of a uh a cut across all of these Children for the most part. Um So where does the, where, where is the, how do you, how do you, how do you engage this? So, on the consumer side, the expectations are low on the, on the lower tiers and the expectations are high on the higher tiers because of an investment. ==If you're paying subscriptions or they go to theaters, they expect more for that content.== Similarly, on the supply chain side, opportunity is high lower tiers and uh the opportunity is low and much more risky than in the upper tier. So to remember, pure tech is generally getting these, these lower tiers uh managed services uh where you bring too of bringing up the uh the tier tier three area. ==Um And as you go up the tiers, there's a lot more involvement of units.== ==I think the last piece I want to talk about is really talent.== Um Me and you are looking at these higher tiers, tier two and tier one, I would say tier one is probably about 20% or so of, of media entertaining content. Tier two, probably a talent is really um important in that as we start to expose this technology into, into the territories or into certainly the uh factors unions uh uh both in Europe and as well as the US, there is a concern about what is their role and their job is going to be and this is a very, very real uh issue and it's up to us not to really um explain how that, how their voice can be monetized, you know, in an A I space. Also, how the role is going to have to change uh whether they're directors or translators, you know, in this case, how, how, how is it going to change how they adapt to utilize the technology? ==Because we know it's working through, it's working through the tiers.== ==So the question, last question would be like, where are we today?== ==In my estimation we've covered with A I uh certain tier 42 A three and a real sweet spot where we, which will be targeting is this tier two library of content, fashion reality programs and lo originals and, and kids animation.== ==This is gonna progress rapidly in the, in the next year of tier one, I think is a bit of an hour or 2 to 5 years.== All right. Well, I don't know about you but I'm still with the thyroid me. Let go back back to your left side. Yes. The benefit of going last is to get the life out of the slide. And I think that's a good uh context and framing for a little bit of time. Of course, conversation, ask you questions about you. Do all that for, I have to respond. Sure. Thanks for you. No problem. Um No, I think that you know, localization is, is something that is, I, I think so, right? For the technologies, but it is so complicated. I think, you know, Scott was talking about um you know, there's talent involved, there's, it's not just a straight translation problem, right? It's, you're, there's a, there is actually a piece of art history to figuring out how to translate something, not just into another language, but how do you, how do you translate English? How do you actually make a joke that may, you know, be very local in the US and make that applicable in another region or vice versa? Right? II, I would say that US audiences are probably uh less educated about some of the jokes in other countries in general. And so trying to make it, make, make uh um outside the US content more accessible to, to the US audience is, is really a challenge. And so being able to have people still be involved in that process because it, it's not just a counterpart. So that's a whole new job category, right? Simulation comedian. Well, it's interesting to think about just the content explosion. I mean, it, we think a lot about A I for content in discovery already. So if you are, I don't to the RS code service at a given time like 90,000 titles. So how do you as a consumer navigate that find the content you want? It was really interesting to have applications I'm in the mood for a film about sharks with three guys who are having a good time. Like to that kind of natural language of show makers, actually, we actually might have the movie for you. Um Whereas you wouldn't necessarily know if like a key word search, but an actor who find, but to the content, discovery is already such a challenge. And we're using A I to help solve that you then add in international content. I mean, if you take this out, agree, you like it's lo it's logical conclusion, potentially, that can be extreme all content everywhere. You're only consume in your own native language potentially, right? ==And then what is the content discovery when we actually have a a global catalog at your fingertips?== ==And who winners and losers?== ==Now it's interesting to you already, you talk about the content explosion. If you actually take some of this technology to its extreme, you put the whole global marketplace of content in play that even takes that that challenge to the next level.== ==And it's an incredible opportunity but also just presents like there's no winners or losers.== ==No, definitely there's more content. I mean, there's obviously a desire for more content and there's a lot of degree of content out there that doesn't necessarily get into, I would say USA== Yeah, I do think um there's a growing trend for sure of non-english content. And uh and we see this, this is why we have such a large amount of English study uh in, in L A. But I also think that A, I can help particularly large language but also the ability to hit it if you're going to do um you know, a, a Brazilian telenovela in Japan, they usually have, there's not too many Japanese translators who also speak Brazilian Portuguese and, and Llns and, and the transition to the translation is really gonna help that effort. The C I think, yeah, I was just thinking that something as simple as how are you or these, these uh the scene that you're talking about knowing the sentiment of the scene and, and having a joke play out having that beat that happens as a rule to, to make it funny or, or serious in a given scene. So how do you do that within language that maybe you have to then generate more of that scene? Is that where A I comes in and generate the video portion of that scene? So then you can, you can hang longer. So the language isn't just rushed. And so it's like you, you speak quickly speaking, whatever this Portuguese Spanish, Hebrew, whatever you Russian, whatever it might be in that scene that you can properly get those, get that language out and, and you can play out that so it feels natural. Yeah, I I think that A I am here, especially around image. We get that 3 to 5. The being able to localize into the territory and to create a content, there will be a lot of latitude about what you do on the image, to be able to transfer it, to make it appropriate and make it more entertaining, more successful in the territory. We don't know yet. We're just touching the sketch, the insurance on it. Yeah, it's an interesting one too just because it touches on when anything that touches on the image, not just changing for a localization, but when you start talking about extending a scene, you're not creative, changing the narrative, right? And that becomes uh again, another human and human has to come back into the loop all that the way it should play out and we have music and other things that kind of complex. So let's come back to the the human part again. And so we've heard a lot about, there's a lot we don't know yet. There's a lot that we don't know that we can do or that we'd like to do. So. Uh so new jobs, job training, democratization made you more available and any thoughts on, on, on the people part of this? Yeah, I think people, I mean, we still need people, OK? I mean, these things need humans to uh to guide them. ==They're again, these, these are new tools for us to use, not, not replacements for humans.== ==And that again, innovation in, in our community typically comes at the cost of some jobs, but hopefully, hopefully it's doing work that is, I would say the, the lower skilled, more menial tasks that now you can take a human and actually do the higher value creative stuff.== ==Uh You know, that's, that's ultimately the goal, right is to give humans better, better access and better, better time spent doing the things that they're good at.== ==Let computers do things that they're good at the benefits of the I, I think you calculate some of that.== ==So let's go down, have no thoughts on that.== Yeah, I think also when it comes to animation, um, and, and you have a director that wants or even a live action to say, look, I, I've got to set this time. I want, um, can you give me more choices? Can you give me more variables of like, you know, I, I just want to set the stage and I want, you know, 40 different trash cans and I want trash can that really matches the scene with chairs that go with it. Everything. Can you give me, you know, a bunch of variations of that and you can, then you have the ability to drive that. Um, there's conversations around again, animation. But, uh, when you have a character that, that they talk about, if anybody is in Nation and you want to have that pose or that character move to a different, if they're coming from a building how they're clumsy that they're a superhero, how would they land? Off that building onto another platform. So it's the natural look and feel going. Was it the language curve? I guess it's called that would go from that character, something else. So what are the options, you know, giving us some more options? So the you can spend more time on the story, you can spend more time creating, making something better. But ultimately, I think you, you're still gonna need people doing those things. It's just gonna be the type of tools that they're using. You know, it, it me extends from, we talk about the democratization of access. It's my first ma B and it's interesting for me to see how, what the theme of fast, like just how much people are talking about as supported um access to content here. So you have democratization of access. And for me, I think some of this is as a tool kit, you know, to a more democrat set of creators, you know, and, and be able to allow people have a creative vision to achieve that vision get distribution and then for consumers to be able to really find their niche and find their content. ==I think it's an explosion of content that we can really have a democratized access to toolkits as well.== ==And it's in the hands of, you know, the the tier one creators that could take them to new heights and then it's gonna bring people in tier three maybe who don't have access to the top V FX studios in Hollywood, but now potentially can create the science fiction, uh you know, film of their dreams with some this technology is,== ==I think that's an incredible opportunity.== Absolutely have shown that uh uh some of these tools in the hands of the lower skilled population lifts them up a lot. So, so who knows what kind of great things we make? Got it. Yeah, I mentioned uh A QC be able to evaluate the alphabet, especially in creative space. Somebody has to make those decisions. Somebody has to say yes. Uh this voice model is right or, or against the original, somebody has to say this translation is correct. Somebody has to uh look at the image if you're doing uh a lo to make a decision and that same person is also going to be operating a toolkit, some sort of application that interrogates the model is constantly saying, OK, I have it right. ==And that activity doesn't really exist today. Those are broken up in different holes.== ==And I think that skill set a is gonna hold the winners in this sort of people who are going to be able to a utilize their, their, their discerning eye, they, they're building their talent to know that something's right program as well as being able to operate them in a toolkit.== ==I think if you see a little bit into these guards where like fundamentally, you're still, the creators are still responsible for the quality of the output, regardless of the tools that are, that are used.== ==That is that, you know, and that's part of like how creators can, you know, have trust with their audiences.== ==We can't use these tools to mislead our audience or uh just miss our audience.== ==And we have, I have seen in the public, some examples of this ring look too aggressive to use these technologies in ways that disrespect actually the consumer um and mislead them that they mislead the consumer.== ==So they fundamentally in the hands of creators who are f at the end of the day, fundamentally responsible for the content they put forward and these are tools for them to do their work even better.== ==And ideally that and to be able to spend more time with the creative potential um and their new ideas but but still fundamentally being responsible for the output,== ==which again, kind of harking back to the earlier point, I think really does determine a little or is, is determined by the models that are used and the inputs into those models.== ==Like we should be opinionated, I think by that whole spectrum as we think about deploying these technologies in the== Absolutely. I was gonna say, I think we still wanna be told stories by humans and I don't think we're at the point where you know A I is going to tell us the stories, right? ==So these are human driven tools to help tell the stories that may be otherwise could have been told to your point.== ==And that creativity is still an integral part of the process.== ==It just gives you, gives me the ability to create something wouldn't be able to create, you know, and does that does that, you know, I impinge on somebody else's ability, it didn't affect anybody else's stability, right?== ==So more creativity and more access to the tools will give more opportunities, more stories, more, more content in the, in the end,== then we have about a minute and a half left and we have a room full of people. Is there anybody you want to ask a question up front here and where if I went right there, right there, there we go. So thank you for a very different discussion. Uh And uh especially Scott, thank you for great uh uh screen uh screenshot with a I Martin. I, I'm founder of A I translation technology. And uh in this technologies since plenty Latinas and uh uh probably I move some objects from the, it's a fan, it's a fan, a series. But, but of course, it's a very good explanation of the situation. Yes, because it's nice. Uh And uh I would like to speak uh to express my opinion that uh it's uh a tier one, it will be reached very fast. But the problem is that uh currently the majority of studios doesn't use the tier 23 and tier four. And just over spend in budget every day. Are you just pay attention model or last uh solutions that appear on the market and it's recreated for keep the cost. And in many, in many case even increase the quality of translation. And we compare with human translation because human is not, they can't, can't translate like military health, other clinics about the technology. So, so really good point. Thank you for that. And a question from someone before we wrap all this gentleman over here. Can you pass the micro? Yeah, I, I wanna come back to uh Mount Melanie's topic that I fully understand the point of view of a content creator. Why you would like to see this technology used? I think we're trying to deal with two separate problems. One of them was giving the customer some back to the original source to a you can trust them. And the second part of it I think it separate is to set something up for modernization so you can do licensing. I'd just like to express my opinion that no, no, I got a question there. I have a question. I hope that neither of these things happen because how are we going to deal with fair use and slowing things down? Uh by having all this argument back about who the pen for music things? I think it's going to slow down everything. Why do you think this is a good idea? Great question. Um So yeah, fundamentally, I think it's the same technical solution to both problems, which is why I move them together. You want provenance that establishes who owns, who in the real world owns a piece of digital content solves a consumer problem. And it also solves the question of how data is being used by these models. ==The question of speed, I think it's one reason to put forward a technical solution rather than a litigated solution.== ==right. So there is, I think we all can agree that there's, there's going to be a movement and there's, I think already a movement to want to understand what are these models trained upon.== ==Um And that's not just for compensation reasons. It's also just to understand how they're performing.== ==And so for me, like the, the the method of putting forward a technical solution, which is, there's actually um you know, I think it doesn't need to slow down anything because the technology exists and having that approach as opposed to litigation or licensing or, you know, necessarily having like a standard that must be what is regulatory driven.== ==I can see why that might slow things down.== ==But instead, I think technical solutions are, those are what we should be putting forward or otherwise we're going to have an architecture imposed upon us.== ==And I think we could be at the table to help define what that architecture should be.== ==Technology is the way to get there.== Um Quick response from anybody else I wanted question. I thank you for those personal. I thank you all for being here. I have a big round of applause for right and go out to the show floor and learn stuff. --- 갈 준비가 됐나요? 아니면 몇 분 정도 기다려야 할까요?고마워요.고맙습니다.당신, 이제 갈 준비가 됐어요.아니요, 마스크는 당신을 위한 거예요.하루에도 여러 번 그랬는데, 지금까지 좋은 공연 하고 계신가요?이제 이 주제에 대해 알아보겠습니다.좋아요.제 생각엔 이것 같아요.고마워요.아니에요, 하지만 그는 그 축복을 받지 못했어요.어젯밤에 잠깐 나갔었지이보다 더 좋은 건 아니었어요.한 부분이 있었어요.네, 그건 아니에요.오, 좋아요.이제 갈 준비가 된 것 같아요.어서 가세요. 안녕하십니까, 여러분.어, 세션에 오신 걸 환영합니다.저는 앤디 왈츠예요.어, 저는 한 손으로는 셀 수 있을 만큼 수십 년 동안 미디어 및 엔터테인먼트 기술 분야에서 일했어요.그리고 1년이 지난 오늘 세션 A의 모더레이터로 활동하게 되어 영광스럽고 기쁩니다.온라인에 있는 세션 설명을 다른 말로 바꾸어 설명하겠습니다.Open A가 세상을 뒤엎은 지 약 17개월이 지났습니다. 저는 운이 좋게도 선임 미디어 실무자들로 구성된 패널이 A, I가 어디에 있는지, 미디어 제작 파이프라인에서 아직 자리를 잡지 못했던 부분을 이해하는 데 도움을 줄 수 있었습니다.그래서 이 세션은 효과가 있지만 효과가 없는 것들을 다루는 진짜 세션입니다.곧 작동하고, 어쩌면 모퉁이에서 조금 더 멀리 떨어진 곳에서도 작동할 수 있습니다. 좋아요.그래서 여기 계신다면 아마 저희 패널리스트를 데리고 오셨을 겁니다.그럼 소개가 필요 없는 스타들에 대해 간단히 소개해 드릴게요.먼저, 필 다르 힐 (Phil Dar Hill) 은 소니 픽처스 엔터테인먼트의 전직 최고 기술 책임자로 재직하면서 연구 개발 활동을 이끌었고 새로운 기술을 이끌었습니다.이는 클라우드 기반 제작, 포스트 프로덕션 및 크리에이티브 콘텐츠 전달의 미래를 설계하는 데 도움이 됩니다.빌은 현재 영화 예술 과학 아카데미 과학 기술 위원회의 공동 의장을 맡고 있으며 인텔리전스 아카데미 제너레이티브 A I Summit의 공동 의장으로도 활동하고 있습니다. 그 다음은 릭입니다.팻.Rick은 혁신적인 기술 기반 파트너십 관계를 추구하는 미디어 및 엔터테인먼트 업계의 영업 연락 담당자로, 자율 주행 차량 내부의 엔터테인먼트 경험을 구상하고, 위치 기반 경험을 제공하고, 여러 주요 스튜디오, 방송사 및 테마파크에서 AI 및 ML의 힘을 활용하여 생물, 캐릭터 및 디지털 트윈을 생성하는 등 획기적인 프로젝트를 이끌고 있습니다.다 음은 Melody입니다.MRE Melody는 C Corporation의 최고 기술 책임자로 재직하면서 폭스 스포츠, 폭스 뉴스, 폭스 엔터테인먼트, 폭스 텔레비전 방송국 및 TV 미디어 그룹을 망라하는 Fox 기업 전반의 신흥 기술 개발, 설계 및 구현을 주도하는 회사의 포괄적인 기술 전략을 수립합니다.현재는 인공 지능 개발, 블록체인 기술을 통한 프리미엄 콘텐츠 인증 및 수익 창출을 포함한 미래 계획에 초점을 맞추고 있습니다.그녀는 또한 기술 관리 및 A 사업을 주도하는 기업의 사이버 보안 태세를 지속적으로 감독하여 투자 및 성장 영역을 파악하고 있습니다. 마지막으로 중요한 것은 Scott Rose와 Scott이 미디어 로컬라이제이션 분야의 세계적인 리더인 V SI의 최고 기술 책임자입니다.그는 회사의 운영 및 기술 로드맵뿐만 아니라 글로벌 공급망, 미디어 운영, 헌트 및 보안, 창작 공간에서의 A I 실현 가능성을 포괄하는 R 및 D 비전을 책임지고 있습니다.따라서 나중에 이를 위해 활용할 수 있습니다.좋아요, 패널리스트를 소개해 드릴게요.그러니 손을 들어주세요.당신이 어떤 종류의 영화 제작자라면, 저는 카메라 앞에 있는 카메라예요. 어, 기술자예요.좋아요. 교육자 여러분, 제가 아직 다루지 않은 다른 범주에 대해 말씀드리겠습니다.좋아요.다른 한명도 있고 다른 한명도 있으니 질문할 시간이 있었으면 좋겠네요그러니 모든 프레젠테이션을 주의 깊게 들어주세요.패널리스트의 의견을 듣기 전에 곧 대화를 중단하겠다고 약속드립니다.그래서 몇 가지 추가 맥락을 말씀드리고 싶습니다.따라서 AI 혁명은 매일 여러 개의 A I 뉴스 기사를 다루기에는 정말 많은 의미가 있습니다.뉴스레터, 팟캐스트, 유튜브 채널 등에서 신제품을 소개하는 빈도는 비슷해 보입니다. A O I의 경우도 마찬가지입니다.마치 불에서 술을 마시는 것과 같지만, 정말 혁명일까요, 아니면 한 세기의 또 다른 단계에 이어 미디어 기술, 도구, 도구, 이 모든 것의 오랜 진화가 이루어졌을까요?우리는 이미 이런 일을 겪은 적이 있습니다.오랜 세월 동안 변했어요. 실제 영화를 예로 들겠습니다.영화 프로젝션에서 디지털 프로젝션으로, 모노럴 아날로그 사운드에서 완전히 몰입감 넘치는 디지털 사운드로 전환되는 등 제작, 전시의 모든 측면에서 변화가 나타나고 있습니다.어, 3D, 디지털 방식으로 캡처하고 디지털 방식으로 투사할 수 있습니다.그래서 보는 게 그렇게 고통스럽지 않아요.그리고 이건 잘 모르겠어요. 아니면 저걸 보고 싶은지 모르겠어요. 그리고 제작 과정에서도 그 모습을 봤죠.필름 캡처부터 디지털 캡처까지, 아날로그 비닐 레코딩에서 멀티트랙, 디지털 시작까지, 그리고 시각 효과에서 광화학적 기계적 시각 효과부터 완전한 디지털 매직까지.그러니까 이건 그런 게 아니에요.꽤 명확하다고 생각해요, 그렇죠?음, 제너레이티브 제너레이티브 AI 머신 러닝과 관련 기술이 촉발한 혁신은 모든 곳에서 모든 것이 한꺼번에 몰려오는 것 같아요.그러니까 이 아이 차트는 음, 복음 그대로 받아들이지 마세요.지난 12월에 A I 표준에 관한 워크숍을 위해 이 자료를 준비했습니다. 약 100개의 항목이 있는데 제가 프레젠테이션을 한 당일은 이미 지났으며, 출품작 수는 콘텐츠 제작 및 배포의 모든 측면에 걸친 학교, 그리고 일부 기초 기술을 망라한 것으로 생각됩니다. 그리고 그 이후로 최소 20% 이상 늘어난 수치입니다.그러니까 음, 거꾸로 돌아가 봅시다. 음, 그럼 어떻게 하면 이 모든 걸 이해할 수 있을까요?따라서 리서치 및 컨설팅 회사인 가드너 (Gardner) 가 개발한 하이프 사이클 곡선은 새로운 기술을 이해하려고 할 때 살펴볼 수 있는 유용한 렌즈입니다.타임라인이라고 생각하시면 됩니다. 상태에 따라 선이 이리저리 움직이고, 색 점들은 완전히 실현되는 데 걸리는 시간을 나타냅니다.곡선에는 다섯 단계가 있습니다.혁신의 계기는 새로운 기술이 도입되어 관심을 불러일으키는 지점입니다.부풀려진 기대가 최고조에 달할 때는 열정이 넘쳐나고 기술이 기대에 미치지 못하는 환멸의 구렁텅이가 나타나고, 환멸은 보다 실용적인 응용이 발견되고 기술의 잠재력이 더 명확해지는 깨달음의 경사면에 놓입니다.그리고 마지막으로 기술이 널리 채택되고 그 진정한 가치가 인정받는 생산성의 정체 국면입니다.이제 첫 단계가 얼마나 엉망인지 알 수 있습니다. 혁신은 이미 들어보셨을 만큼 많은 AI I 용어들이 있지만 아직 생산성의 정점에 도달한 것은 없습니다.그러니 빨리, 이 중 몇 가지에만 집중하세요. 이 모든 것을 상황에 맞게 설명해 주세요.그래서 제너레이티브 AI는 기대치가 최고조에 달하죠.후플라는 바로 그곳입니다. 어, 인공 제너럴 인텔리전스.그건 정말 걱정할 필요 없을 것 같아요.맨 아래에는 인간이 너무 많아요.인공지능의 첫 번째 원칙은 바로 이것이 혁신의 방아쇠라는 것입니다.일종의 기초가 되는 것 같지 않나요?그리고 어, 저는 아이들을 만들고 가르치고 있어요.그래서 제가 교육자에 대해 물었죠, 그렇죠?미안한 상황이네요.이게 우리가 모두를 교육하는 방법이에요.오늘 이 세션의 요점은 바로 교육에 도움을 주자는 것입니다.하지만 AI 서비스처럼 작동하도록 도와주는 몇 가지 핵심 요소가 있습니다. 도박은 실제로 비용 효율적인 방식으로 이 작업을 수행하는 데 필요한 기본 기술입니다. 좋아요.그럼 이제 각 과거에 대한 개회 연설을 시작하겠습니다.그럼 여기서 한 번 해볼게요.컨트롤 F 파이브.그게 누르는 거지?괜찮아요?탈출?알다시피, 그 컨트롤 A 녀석이 당신을 데리고 나가려면 기술 전문가가 여기 있어야 할 것 같아요.그 사람들은 어때요?음, 마커스 레이트, 됐어요그래서 시작했어요.그리고 네, 지금은 괜찮았어요. 제 생각엔, 제 생각엔, 모든 것에는 당신이 이름을 붙이는 것 같아요. 어떻게 지내요?알아요.알아요.알겠어요.안녕하세요, 여러분.먼저 와줘서 고마워요제가 기술 낙관론자라고 해볼게요.그리고 어, 제 생각에 기술의 도입은 완전히 파괴적일 수 있다고 생각합니다. 제가 말씀드리고 싶은 요점 중 하나는 우리가 이것을 A I라고 부르지 않으면 어떻게 되느냐는 것입니다. 왜냐하면 이것은 A와 잠재적인 사회적 문제에 대해 더 많은 대화를 들을 수 있을 것이기 때문입니다. 분명히 그건 훨씬 더 큰 문제가 될 것입니다.하지만 영화와 TV 산업의 제너레이티브 AI, 그리고 그것이 우리에게 야기할 혼란에 대해 이야기할 때, 그것은 단지 기술일 뿐이죠, 그렇죠? 제 말은, 우리가 일하는 방식을 바꿔버릴 수 있는 무언가가 등장한다는 거죠.이는 곧 등장하고 있는 기술의 수뿐만 아니라 동시에 또는 적어도 빠르게 연속적으로 붕괴될 수 있는 업계 내 모든 다양한 분야의 수에 대한 Andy의 의견과는 다릅니다.예를 들어서 조금 더 살펴보도록 하겠습니다.다음 슬라이드 플레이.다음 슬라이드.제가 그럴까요?좋아요.과거에는 수동으로 첫 번째 로트로 진출할 수 있었습니다.그럼 빨리, 이 두 번째 부분으로 다시 돌아가지 마세요.우린 지금 집에 있는 게 맞아요나한테 전화했어야 했는데 그렇게 할 거라는 거 알아저기 약속이 있는 거 보여?아주 좋아요.좋아요.이건 제 생명을 구하기 위해 제가 그릴 수 없는 무언가를 만들고 있는 것의 한 예일 뿐이에요. 하지만 제 딸이 첫 그림을 그렸어요.저는 로켓 프로그 (Rocket Frog) 라는 회사를 운영하고 있어요.그래서 로켓 개구리가 어떻게 생겼을까 하는 생각이 들었어요.그러자 그녀가 말하길, 오, 그녀가 이 작은 걸 닥터 그렸다는 생각이 들어요. 저는 그걸 안정적으로 퍼뜨렸어요.반딧불이에 넣었죠.말 그대로, 이게 효과가 있는지 봅시다.그녀가 그린 게 그거였어요.그러다 보면 프롬프트를 하고, 그리고 이런 도구들을 가지고 작업하다보면 망설이게 되죠.간단한 과정이 아니고 온갖 이상한 것들이 생겨요.이건 제가 시간을 들여 찍은 100개의 사진입니다.그래서 저는 조작을 시도하고, 아래로 내려가려 하고, 알다시피, 사물을 정교하게 만들고 이 변화를 바꾸려고 합니다.정말 멋지네요.저는 손으로 그릴 수 없는 것을 만들 수 있어요.그게 사실 우리 가족이 가장 좋아했던 마지막 작품이었어요.그리고 나서 저는 이랬어요. 하지만 그걸 없애고 싶진 않아요. 그 위에 있는 저 포털이죠.그러니까, 뭐, 이걸 없애는 것 말고는 그렇게 말할 방법이 없잖아요, 그렇죠?그래서 수동으로 해야겠네요. 하지만 제 요점은 이런 도구들은 그렇지 않다는 것입니다. 단지 여러분이 원하는 것을 알려주고, 얻게 되는 것, 잠재적으로 마음에 드는 것을 말해주는 것이 아닙니다.아직 큐레이션이 필요하죠. 창의적인 과정이죠.이것들을 실제로 어떻게 사용할지 알아내려면 직접 거쳐야 합니다.맞아요, 작년에 출시될 챕터 GP T에 대해 이야기했었죠. 2월에 출시되었을 때 모두의 마음을 사로잡았죠.그리고 이제 에어 P 쇼트가 있는데, 이건 정말 좋은 예시죠. 이봐, 아이디어가 있으면 할 수 있고, 놀라운 일을 해낼 수 있잖아요.정말 멋진 것들을 만들 수는 있지만, 이게 쉬운 일이 아니에요. 이게 바로 이거고 영화 제작자들도 이에 대해 이야기했습니다.마치 이 도구가 그들의 툴박스에 새로 추가된 것 같아요.하지만 이 단편을 만드는 데 들인 시간과 노력은, 아시다시피, 심장이 약한 사람이 쓰러질 정도는 아니죠, 그렇죠?왜냐하면 시간적 일관성이 없고, 공간적 일관성이 없기 때문이죠. 사물을 조작하려고 하는 거죠. 일관성 있게 보이려면 사실 이후에 얼마나 많은 수작업을 해야 했을까요?그리고 있는 그대로의 모습에는 많은 불일치가 있습니다. 하지만 영화 제작자 도구의 관점에서 볼 때, 우리가 이런 것들을 더 잘 제어할 수 있게 되면서, 알아내기 시작하면서, 제가 좋아하는 인간처럼 그것과 의사소통할 수 있게 되면서요. 하지만 이 한 가지만 바꾸세요.지금은 좋네요. 이제 막 구멍이 생겼고, 아시다시피, 이런 점이 마음에 드실 겁니다.이거 어때요?어 글쎄요, 여기 또 다른 게 있는데, 그게 좋다고 해서 꼭 모든 식물이 자라나는 건 아니에요.그래서 제가 생각하는 혼란은, 음, 뭐, 지금처럼 만만치 않은 것 같아요.물론 아직 갈 길이 멀고 미래의 가능성이 있는 부분에 대해 더 이야기할 것입니다. 하지만 콘텐츠를 만들고 그것이 어떻게 멋지고 멋진 프로세스의 일부가 될 것인지에 관한 한, 이런 것들이 사람들의 일자리를 빼앗을 수는 없습니다. 음, 제가 말씀드리고 싶은 또 다른 것은 미래에 대한 우리의 예측이었습니다.그래서 우리가 실제로 기술을 어떻게 보고, 기술을 구현할 때는 미래를 잘 예측하지 못하죠.아시다시피, 우리는 이런 유형의 혼란에 매우 당황하고 있습니다. 그리고 항상 미래에 일어날 일에 대한 가능성을 과대광고하고 과소평가하거나 과소평가하는 경향이 있습니다.음, 어쨌든 하늘을 나는 자동차라고 했잖아요. 알다시피, 하늘을 나는 자동차를 약속받은 지 얼마나 되었나요?음, 쉽지 않죠?그리고 많은 경우 이런 것들이 실제로 적용되기까지는 오랜 시간이 걸리고 아주 잘 진화하고 있습니다. 하지만 기술이 우리, 산업, 노동에 미치는 실제 영향을 이해하거나 보는 것은 매우 어렵습니다.예를 들자면, 이 문제를 빠르게 해결해 보겠습니다.음, 여기 편집하는 사람이 몇 명이고, 영화 제작자도 있고, Moola나 10 또는 스팀 백으로 영화를 편집하는 사람이 몇 명입니까?네, 그래요.하나.좋아요. 그러니까, 알다시피, 분명히 진화가 있었고, 우익과 다른 것들도 있었죠. 그 당시에는 디비전 조명, 다른 디지털 비선형 편집 시스템들이 있었죠. 초창기에는 말이죠.그리고 그 당시에 저는 편집자들이 이 새로운 기술을 도입하도록 돕는 일에 실제로 관여했습니다.그리고 1995년 무렵에는 대부분의 주요 영화들이 미디어 작곡가와 다른 시스템을 추가해 앱 종류로 편집되었습니다.하지만 뭐, 그 당시에 편집자한테 거의 불평을 하던데, 저는 도움을 받을 수 없을 거예요.도움 안 받을게요음, 편집자로서 저한테서 더 많은 것을 기대하게 될 거예요. 왜냐하면 저는 지금 이 모든 힘을 제 손에 쥐고 있고, 현실은 그들이 30년 후에는 콘텐츠의 폭발적인 증가, 실제로 콘텐츠를 편집하는 편집자의 수, 이 과정에 실제로 관여하는 사람들의 수가 엄청나게 늘어났기 때문입니다. 하지만 몇 년 전에는 예측할 수 없었지만 이해합니다.하지만 문제는 우리가 항상 직업이 바뀌는 것보다 직업이 사라지는 것에 대해 걱정하는 경향이 있다는 것입니다. 그리고, 그리고 실제로 직장을 바꾸는 사람에게는 두려울 수 있다는 것을 압니다.저도 완전히 이해해요. 하지만 우리는 하나의 산업으로서 진화했고, 우리가 하는 일에서도 진화합니다.우리는 더 많은 기회와 더 많은 일자리를 창출하는 경향이 있습니다. 그리고 더 좋은 품질의 일자리를 만들었으면 좋겠어요.네, 그래요.좋아요.음, 고마워요.이제 고차원적인 개요를 말씀드리겠습니다.어, 이제 조금 더 해볼게요. 하지만 세 가지 레벨이 있어요.음 네, 그래도 말씀하신 내용이 마음에 드네요.좋아요, 기회가 있는 일자리는 여전히 존재합니다. 특정 시점에 도달하거나 환경 내에서 선택의 폭이 넓어지기 때문이죠.매장 직원이 할 수 있는 날씨 관련 부분을 확대하세요.저도 그렇게 생각해요.음, 환경에 대해 이야기할 때는 소프트웨어에 대해 이야기하죠.그 소프트웨어라고 생각하세요?우선, 데보 팬이 있는 사람이 있다면 누구라도 될까요?하지만 깊은 곳은?좋아요, 이 노래에 대해 알고 계실 수도 있겠지만, 어쩌면 선택의 자유가 최상위에 없었을 수도 있습니다.하지만 당신이 원하는 건 선택의 자유죠, 그렇죠?콘텐츠를 원하는 곳에서, 원하는 시간에, 원하는 방식으로 제작할 수 있어야 합니다.켜져 있고, 클라우드에 있거나, 온프레미스에 있고, 새로 출시한 인텔 기반 A I PC에 탑재되어 있고, 원하는 곳 어디에서든 C음, 원하는 곳 어디에서든 사용할 수 있는 선택의 자유, 그러한 워크로드를 실행할 수 있는 유연성을 제공하는 모든 것을 포괄하는 소프트웨어를 보유하는 것은 좋지 않을 것입니다. 응용 프로그램과 응용 프로그램이 있는 곳에서 이러한 워크로드를 실행할 수 있는 유연성을 제공합니다. 실행에 익숙한데 이미 알고 있는 도구에 이러한 도구를 통합할 수 있습니까?따라서 이러한 도구가 훨씬 더 유용하고 유용합니다. 그래서 제가 말씀드리고 싶은 것을 몇 프레임 안에 설정하고, 무대를 꾸미고 싶었습니다.이제 제가 할 수 있는 대화에 대해 말씀드리고 싶습니다. 단지 제너레이티브 A I에 관한 대화가 앞으로 나아간다고 생각하기 때문이죠.미안해요.무슨 말이에요?제 말은?네, 그래요.그럼 우리가 생각하고 있는 도구 중에 현재 사용할 수 있는 도구는 무엇일까요? 아니면 지난 한 해 동안 만들어 내일도 사용할 수 있을 것 같은데요.그러니까 다음 점심은 젠장.그래서 렌더링과 이런 반복을 거치면서 포스트 프로덕션 프로세스에서 가장 중요하게 생각하는 것 중 하나는, 제가 보여드리는 예가 애니메이션이든 아니든 간에, 사실 라이브 액션으로 할 수 있습니다.그리고 저 바운더리 박스는 렌더링의 결과로 많은 노이즈와 픽셀, 삶의 변화를 만들어낸 영역 주위를 맴돌고 있습니다.여러분이 받은 기술과 도구의 결과로 새로운 문제를 야기하는 일들이 벌어지고 있습니다.그럼 이런 문제들 중 일부는 어떻게 해결할 수 있을까요? 음, 그리고 우리는 캐나다 외곽에 있는 사이틱 회사들과 함께 일하고 있어요. 그곳에는 여러 개의 V 이펙트 매장과 약 여섯 개의 다른 더 이펙트 매장이 있습니다.그리고 영화도 찍는데, 아마 이것도 애덤스 가문의 장면일 거예요.다음 영화로 가세요. 음, 오 그래요.음, 음, 렌더링 전에 렌더링한 후 렌더링의 결과로 생긴 경계 상자가 어떻게 생겼는지 알 수 있습니다. 이제 클린업이 진행되고 있는 것을 볼 수 있습니다. 이제 비용 절감에 대해 이야기하고 있습니다.따라서 이전 렌더링 비용의 25% 와 시간을 절약한 셈이죠. 다시 말씀드리지만, 첫 슬라이드의 유연성에 대해 다시 말씀드리자면, 이 슬라이드는 처음에 Intel이 CP US용으로 설계했습니다.이제 Apple을 비롯한 모든 아키텍처를 지원하는 도구를 특정 GP U에서 실행할 수 있는 소프트웨어와 도구가 있으면 비용을 절감할 수 있습니다.음 그리고 이걸 당신이 가지고 있는 기존 도구에 통합하는 것에 관한 또 다른 요점은, arval이든, 블렌더이든, 음 유니티든, 어 바 그래서 저는 이것이 어디서, 어디서, 어디서, 지금 무슨 일이 일어나고 있고 어떻게 채택되고 있는가라고 생각했습니다.음, 우리가 아마존에서 시연하고 있는 것, 어, 실례합니다. Aws Booth는 식당이나 식당 같은 콜센터에 있는 것 같아요.모두가 그렇듯이, 빠른 채널의 등장과 더불어 이런 채널에는 콘텐츠가 너무 많아서 개인화를 위해 시청자를 대상으로 하는 것들에 대해 사람마다 다른 패스트 채널을 갖게 되었습니다. 음, 대부분의 콘텐츠는 해상도가 낮고 비용이 많이 들어요. 복잡성이 낮고 업스케일링 방법들이 우리가 가지고 있는 것들이야 말로 다양한 유형의 아티팩트를 도입할 수 있습니다.하지만 딥러닝 모델은 꽤 비쌉니다.그렇다면 이러한 작업의 일부를 수행하는 데 드는 비용을 어떻게 줄일 수 있을까요? 그리고 아마도 절대 빛을 보지 못할 콘텐츠가 있다면 말이죠.예를 들어 마스터링 과정이 제대로 진행되지 않을 경우 비용이 많이 들고 비용이 많이 듭니다. 나이트코어와 같은 100개 에피소드의 콘텐츠를 승인할 수 있을 정도로 승인을 받을 수 있을까요?그리고 실제로 사용할 가치가 있는 무언가를 만들 수 있습니다. 이러한 도구를 사용하면 비용 효율적인 작업을 수행할 수 있습니다. 그러면 여러 지역에서 라이선스의 이점을 얻을 수 있습니다. 어, 마지막으로 말씀드릴 것은 음 멜로디가 다른 측면에서 이야기할 것 같아요. 심층적인 데이터 보호에 관한 것입니다. 믿거나 말거나 인텔은 항상 하드웨어 회사로 알려진 회사입니다.저희 회사에는 2만 명의 소프트웨어 개발자가 있습니다.우리가 한 일 중 하나는 심층 데이터 탐지를 서비스로 만든 것입니다.저희는 올해 두어 개의 스튜디오와 협력하여 시범 운영 중인데, I BC에서 무언가 출시될 수도 있겠죠.음, 그러니까 선거가 다가온 해라는 건 모두가 알고 있잖아요.동영상이 점점 늘어나고 있다고 생각하시나요?물론 계속 성장하고 있습니다.이 심층 탐지 소프트웨어를 사용하면 개인의 혈류를 관찰하고 자연스러운 움직임, 움직임, 눈 놀이 등 모든 것을 관찰할 수 있습니다. 보고 있는 비디오가 진짜인지 가짜인지 알 수 있죠.그럴 가능성은 얼마나 되나요? 아니면 스트림이 손상되었나요? 안타깝게도 누군가 우리의, 우리의, 우리의 힘을 빼앗겼을 때 방송이 진행된다는 것을 실시간으로 알 수 있는 거죠.어떻게 하면 실시간으로 알림을 받을 수 있을까요? 세상에, 다른 일이 벌어지고 있다는 알림을 받을 수 있는 거죠.음, 하지만 알다시피, 저널리스트도 자신의 저널에 진실을 밝힐 수 있는 능력이 있다는 것을 알면, 그리고 그들이 받은 비디오 등을 통해 스토리를 만들고 전달하는 것은 궁극적으로 가치 있는 일이 될 것입니다.제가 말씀드리고 싶은 것은 이 세 가지입니다.멜리가 할 강연의 묘미라고 생각해요. 정말 대단하죠. 빌처럼 저도 기술 낙관론자, AI 낙관론자라고 할 수 있겠네요. 음, 아시다시피, 일반적으로 기술과 미디어에 참여하기에 이보다 더 신나는 시기는 없다고 생각해요.음, 그리고 대형 언어 모델의 노출에 대해 생각해봐도 저는 미디어 워크플로우 내에서 어떻게 사용될 수 있을지에 대해 매우 낙관적입니다.제 생각에 업계, 즉 창작 산업이 아니라 실제로 생겨난 창작 산업이죠. 하지만 핵심 원칙을 말씀하신다면 콘텐츠는 꽤 독단적이어야 합니다. 음, 그럼 어떻게 하면 그 시대에 우리가 번창할 수 있을지 정말 생각해 볼 수 있겠네요.이러한 원칙은 실제로 대규모 언어 모델에서 학습에 사용하기 위해 데이터를 소비하는 방식과 실제 응용 프로그램에서 해당 모델을 통해 데이터를 상용화하는 방법에 관한 것입니다.대형 기술팀이 미래에 우리가 그들의 모델에 어떻게 참여할 것인지 알려줄 때까지 기다리는 것과는 대조적으로, 업계로서 우리가 미래의 아키텍처를 정의하는 데 어떻게 도움을 줄 수 있을지 생각해 봐야 할 순간이 있다고 생각합니다. 그렇다고 해서 우리가 실제로 보고 싶어하는 미래를 창조할 수 있는 방법이 끝날 것 같지는 않습니다.그러면 우리가 콘텐츠 크리에이터로서 정말 성공할 수 있을 거예요.어, 제가 잠깐 이야기할 기술은 콘텐츠 제작자인 우리가 대규모 언어 모델에 우리 콘텐츠를 어떻게 소비할 수 있는지에 대한 가드레일을 정의하기 위해 제시할 수 있는 아키텍처가 무엇인지에 대한 일종의 첫 관점입니다.그렇다면 어떻게 하면 창작자들도 기업에서 이러한 모델을 사용할 수 있고 원하는 결과를 얻을 수 있다는 확신을 가질 수 있을까요?이 모든 것을 볼 수 있다는 점에서 제가 가장 좋아하는 단어인데요, 릭이 언급한 소비자 문제는 꽤 잘 이해되고 있는 것 같아요. 우리는 근본적으로 세계를 선도하기 위해 밀어붙였고, 소비자들에게, 근본적으로 무엇이 진짜이고 무엇이 진짜가 아닌지를 판단하는 모든 책임을 떠넘겼습니다.그리고 오늘날의 소비자들은 제가 생각하기에 효과적인 방법으로 그 질문에 답할 수 있는 도구를 가지고 있지 않습니다.음, 그게 병렬적인 상업적 문제로 이어지죠. 이 모델들 안에서 데이터가 어떻게 사용되고, AI 모델에서는 어떻게, 어떻게 상용화되는가죠?제가 이틀 전에 BT와 대화를 나누기 위해 이 글을 썼는데 제 슬라이드가 그랬습니다. 음, 이것이 오늘의 주요 뉴스였죠.그래서 대형 언어 모델에 대해 자주 생각해 보면 그 대사는 괜찮다고 생각합니다.음, 마지막으로 업데이트되었는데 2023년 4월에 마지막으로 업데이트된 54개인데 그 이후로는 데이터가 없습니다.하지만 우리가 보는 것은 실제로 이 글에서 볼 수 있는 내용인데요, 사슴 사슴 사육이라고 불리는 것에 손을 들어준 사슴 사육에 손을 들어준 사슴 집안의 기술자들을 위한 것이죠. 하지만 대규모 언어 모델을 사용하여 실시간 데이터를 조사하면 이러한 플랫폼 내에서 실시간 뉴스가 상업화되는 것을 볼 수 있습니다.음, 그리고 이 플랫폼들은 분명히 독단적입니다.제 말은, 이건 새로운 이야기들을 엄선한 것인데, 대형 언어 모델이 선택한 것은 명백히 대형 언어 모델은 비결정적이라는 거죠.이 질문을 하는 사람이라면 누구나 다른 반응을 얻게 될 거예요.이것이 대규모 언어 모델의 놀라운 특징 중 하나입니다.아시다시피, 여러분이 요청하면 우리 모두가 일본 하이쿠를 만들어 달라고 부탁할 수 있습니다. 그러면 우리 모두 일본어 하이쿠를 얻게 될 거예요.정말 놀라워요. 음, 뉴스의 경우에는 패러다임이 다를 수 있습니다. 근거와 모델이 실제로 어떤 출처에서 가져오길 원하는지에 관해서요.음, 그래서 저는 이게 우리 콘텐츠의 상업화라고 생각하는데요.콘텐츠 제작자의 데이터가 이러한 모델의 기초 학습에 들어간 것만은 아닙니다.음, 말씀하신 A G I에 대한 탐구에 대해서뿐만 아니라 우리의 데이터는 이러한 모델을 기반으로 구축된 애플리케이션 내에서 매일 상용화되고 있습니다.그리고 콘텐츠, 창의적인 커뮤니티의 의견을 들어서 우리 데이터를 이러한 모델에서 어떻게 사용할 수 있을지에 대해 의견을 들어야 한다고 생각합니다.또한 이를 통해 우리 스스로도 더 자신있게 사용할 수 있게 될 것입니다.우리가 공개한 프로토콜이 오픈 소스이고 커뮤니티에서 무료로 사용할 수 있는지 확인해 보세요.여기서 말씀드리자면, 우리가 생각하는 이 소비자 문제를 해결할 수 있는 핵심 개념 중 하나는 콘텐츠가 게시되면 디지털 콘텐츠를 실제 소유자와 연결할 수 있는 시간이 필요하다는 것입니다. Fox가 콘텐츠를 게시할 때 우리는 기본적으로 그 순간의 소유권을 확립할 수 있습니다.또한 이를 통해 소비자는 해당 콘텐츠가 다운스트림에서 사용될 때 해당 콘텐츠가 실제로 신뢰할 수 있는 퍼블리셔에서 가져온 것인지 확인할 수 있습니다.제 생각에 허위 정보의 시대에 대한 우리의 핵심 논제 중 하나는 이제 5~10년으로 추정된다는 것입니다. 인터넷의 약 80% 는 제가 만든 인공지능이 될 것이라고 생각합니다.그럼 소비자는 어떻게 그걸 헤쳐나갈 수 있을까요?그들은 정보 공간을 탐색하는 데 도움을 주기 위해 신뢰할 수 있는 퍼블리셔를 고용할 가능성이 높습니다.다시 말씀드리지만, 소비자에게 도구를 제공하는 것이 훨씬 더 중요합니다.그래서 그들은 폭스 뉴스가 보도했다는 내용을 보게 되죠. 물론 폭스뉴스가 실제로 보도했었죠. 음, 이것이 바로 상수 암호화 서명의 핵심 특징 중 하나인데, 사실 그 서명을 지지하는 소유자를 위한 또 다른 콘텐츠인 셈이죠.아시다시피, 이것은 출처의 개념입니다.그러니까 콘텐츠가 대형 언어 모델 팩토리로 들어가서 다른 쪽 끝에서 어떤 식으로든 나오는 거꾸로 작업할 수 있습니다. 어떻게 하면 원래 콘텐츠가 존재했던 컨텍스트를 실제로 이해할 수 있을까요?그래서 뉴스의 경우, 어떤 갈등과 관련된 사진일 수도 있습니다. 실제로 텍스트가 있는 헤드라인이 있는 그림에 신경을 쓰게 되죠. 모든 내용이 함께 중요하듯이 말이죠.여기서 이 콘텐츠 그래프의 단점이 드러나는데, 이는 모든 종류의 음 비디오 콘텐츠에도 해당된다고 생각합니다.음, 컨텍스트와 그에 관련된 권한은 코드에 이를 근본적으로 보존할 수 있습니다. 그리고 마지막 부분은 어떻게 하면 대규모 언어 모델, 즉 소비자에게 해당 콘텐츠의 라이선스를 부여할 수 있는가입니다. 저는 이를 매우 마스터하고 현재 우리에게 딱 맞는 것으로 설명합니다. 대규모 언어 모델이 우리의 콘텐츠와 방어 역할을 얼마나 많이 차지하는지에 관해서요. 제 생각에는 또 다른 어떤 방법으로 이를 얻을 수 있을까요?알다시피, 그리고 여기 냅스터의 애플 뮤직 음악이 있다고 말하는 것 같은데요, 그렇죠?우리 모두 이 생태계에 참여해야 한다고 생각해요.뉴스 조직이라면 어제 뉴스에서 일어난 일의 결과를 직접 보고 싶으실 거예요, 그렇죠?소송을 통해서만이 이 문제를 해결할 수 있는 유일한 방법은 아니라고 생각합니다.우리도 생각해 볼 수 있어요.어떻게 하면 우리가 이 생태계에 참여하여 그에 대한 적절한 보상을 받을 수 있고 그 미래가 무엇인지 정의할 수 있는 방호원을 배치할 수 있을까요?음, 이것이 제가 여러분께 말씀드리고 싶은 프로토콜입니다.음, 저건 이미 공개된 소스였는데, 퍼블리셔와 기업들이 현재 사용하고 있는 AI 관련 내용인데, 저희도 이에 대해 생각해 볼 때 마지막으로 말씀드릴 부분은, 어떻게 하면 기업에서 대규모 언어 모델을 자신 있게 사용할 수 있을까요?아시다시피, 일종의 원시 기반 모델을 가져와 기업에서 즉시 프로덕션에 투입하는 것은 별로 좋은 생각이 아닐 수도 있습니다.음, 많은 사람들이 있습니다. 음, 모델에 어떤 역량이 입력되나요?그 모델에 어떤 입력이 들어갔을까요?그 모델은 어떻게 학습되었나요?이 모든 뉘앙스에 대한 지침은 제작 과정에서 정말 중요하죠. 재미있을 수도 있는 실험들과는 대조적으로 제작 과정인지 아닌지 알 수 있는 거죠.우리는 이러한 모델의 입력에 대해 많은 확신을 갖고 싶습니다.우리는 이것이 우리가 그것을 확립할 수 있는 포장된 길 중 하나라고 생각합니다.그게 다예요, 멋지네요. 그래서 진정성, 자신감, 신뢰성에 관한 중요한 문제들이 많은데, 이 모든 것에 대해 대화를 나누기만 하면 되는 거죠.좋아요. 음, 이제 스콧에게 가볼게요. 스콧은 로컬라이제이션에 대해 얘기할 거예요.음, 오디오 측면에서 말씀드리고 싶은 것 중 하나는 사운드가 사진의 절반이고 사운드 그 이상이기도 합니다.정말 고마워요.음 로컬라이제이션이 뭔지 모르거나 잘 모르는 사람이 얼마나 될까요?작업 중이에요. 세션도 있었어요.음, 제 말은, 창작 과정을 거친 후에 프로세스를 만들 수 있는 능력이죠, 그렇죠?콘텐츠 에피소드를 극장처럼 탈바꿈시키는 거죠. 어떤 영역이나 시장에 내놓을 건가요?어, 그리고 출처에서 타겟까지 외국어가 될 것 같은데요.그리고 이것은, 음, I. 음, 확실히, 낮은 걸림돌이지요.이건 AAA의 확실한 목표라고 할 수 있겠네요. 지금부터 말씀드릴 내용은 간략한 개요와 구체적인 사용 사례가 어디에 있는지, 그리고 우리가 미래가 향하고 있다고 생각하는 업계 전반에 대해 말씀드리고자 합니다.다시 한 번 말씀드리자면, 음, 제 관점에서 본 건데요, 이건 엄청난 양의 엔터테인먼트 세계화를 하는 회사에서 일하는 사람이 보낸 것입니다. 자막, 더빙, 메타 데이터 번역이죠.그리고 우리 세상에는 20만 시간 분량의 콘텐츠를 여러 언어로 처리할 수 있는 플래그가 많이 있습니다.이는 주로 운영 시설뿐만 아니라 파트너사를 통해서도 달성할 수 있다는 것입니다. 데이터에 관한 흥미로운 질문인 것 같은데요, 제가 이걸 왜 말씀드리냐면, 미래에 인공지능 (AI) 이 나오면 어떻게 변할 것인가입니다.바뀌게 될까요?확실히 바뀔 것 같아요.하지만 저는 현지 시장과 그 시장에서의 전문성, 그리고 성공하기 위해 그 시장에 있는 인재들이 그 내용을 어떻게 다루어야 하는지를 이해하는 것이 매우 중요하다고 생각합니다.그럼 몇 가지만 기본적인 것부터 시작해보죠.그러니까 우리가 제일 높은 건데, 물론 이것들 대부분은 아주 분명하죠. 음, 텍스트 쪽에 텍스트, 오디오, 이미지가 세 가지 있는데, 우리는 자동 음성 인식에 대해 이야기하고 있습니다.이것이 바로 트랜스크립션 번역이고 LL MS가 정말 중요한 역할을 하는 분야입니다.음, 그리고 인디언들이 상황에 맞게 이해할 수 있도록 어떤 종류든 더 적극적으로 번역할 수 있는 능력이 큰 영향을 미치게 될 거예요.기계 번역을 고치려는 대부분의 노력은 실제로 적절하거나 실제로 의미가 있게 만드는 것입니다.어, 문화뿐만 아니라 그 콘텐츠를 만드는 것도 의미가 있겠죠.음, 그냥 직접 번역하는 것과는 반대입니다.음, 알다시피, 위에 올려주세요. 술집에 있으면서 그냥 어떤 언어로든 번역하면 말이 안 돼요.저마다 저마다의 표현이 있잖아요. 음, 자동차 쪽에 실제로 두 가지가 있습니다. 그것은 텍스트를 음성으로 변환하는 것입니다. 대부분의 사람들은 문장이나 단락을 쓰고 모델에 닿으면 다른 방식으로 반응할 수 있다는 것에 익숙합니다. 알다시피, 남성, 여성, 또는 다른 캐릭터를 선택할 수 있습니다. 음성 대 음성은 실제로 인간에 관한 것입니다.만약 그렇다면, 예를 들어 당신의 목소리를 복제하고 싶으면, 음, 그 음성으로 일정량의 녹음을 하고 나서 독일어, 이탈리아어, 프랑스어를 구사할 수 있고 싶다고 말하거나 그 사람을 남성, 여성 또는 어린이로 바꾸고 싶다고 말한다면이것은 아주, 아주 강력한 방법이며, 우리 업계에서도 몇 가지 응용 분야를 찾아볼 수 있습니다.데이터 측면에서 말씀드리죠.음, 확실히 꽤 많이 본 것 같아요. 여기가 제가 이전에 이야기했던 대부분의 것에 훨씬 더 가깝습니다.음 그래픽 측면에서도 로컬라이제이션을 하려면 화면의 이미지를 변경해야 합니다.음, 보통은 그래픽 텍스트죠. 하지만 검열이 현지화의 일부분이라는 점에서 규정 준수라는 게 있어요. 다시 말해, 어떤 나라에서는, 음, 담배를 피우거나 술을 마셨다면, 그런 것들을 찾아내서 하류에서 해결하거나 편집하거나 삭제하거나 어떤 식으로든 변경할 수 있어야 합니다.A: Screw On Trace of Phillis라는 회사가 있다는 게 정말 도움이 될 수 있어요. 실제로 그런 일을 하는 회사는 A I로 관련 지역의 이미지를 식별합니다.이렇게 할 수도 있겠죠.또 다른 예를 들자면 음, 이미지 자체도 바꿔보죠.턱수염에서 생수까지미래에는 이걸 사용해서 훨씬 더 자동화될 것 같아요.자, A I 립싱크라고 불리는 마지막 작품은 이미지 속 입의 움직임과 턱을 실제로 변화시키는 것입니다. 이것은 번역 자체에 충실해야 할 차트 이미지입니다. 뭐냐면, 번역을 하고 나면 배우가 들어가서 새로운 대사와 언어를 구사하기 때문에 입술이 항상 일치하지는 않습니다.우리 모두 보아왔고, 독일, 프랑스, 이탈리아, 스페인에서 가장 뛰어난 작품들도 이 일을 해냅니다.항상 실패하는 순간이 있는데 이건 정말 대단한 기술이지요. 이 문제를 실제로 질적으로 해결할 수 있는 기술이죠.자, 바로 이것으로 넘어가겠습니다. 이 경우에는 읽으실 수 있습니다.하지만 핵심 동인에 대해 말씀드리자면, 현지화에서 A I 활용의 핵심 동인은 창의성과 품질 관리입니다. 방금 몇 가지 말씀드렸는데요, 마크 해밀이나 스타보드 같은 배우에게 호응을 받을 수 있는 능력, 어, 앤디 워홀 다이어리 같은 사람이 있을 때, 그는 그의 목소리를 모델에 녹음해서 다큐멘터리에서 그의 일기를 읽게 할 수 있었습니다.어, 그리고 이것들은 창의적이고 품질 관리 유형의 사용 사례입니다.하지만 제 생각에 모든 사람들이 찾고 있는 것은 비용을 절감하고 콘텐츠를 현지화하는 데 걸리는 시간을 단축하기 위해 어떻게 하면 비용을 절감할 수 있느냐는 것입니다.이 경우에는, 음, 조금 더 볼 수 있겠지만, 실제로는 액터를 활용하여 더 많은 역할을 할 수 있고, 텍스트를 음성으로 변환하고, 활성 녹음을 대체하고 모델을 사용하여 텍스트를 생성할 수 있도록 하는 것입니다.어, 네, 그, 보이스 트랙들이요. 그럼 다음 질문은 음, 이게 뭐지, 이게 뭐지, 이게 뭐지, 이렇게 빨리 하는 거예요.이게 제가 제공하는 전형적인 작품들입니다.음, 이 미디어가 문을 열고 들어옵니다. 트랜스크립션, 타이밍, 번역, 각색 등이 텍스트에 맞아서 타이밍이 제대로 작동하도록 하는 거죠.아무리 대화가 길어지면 텍스트를 맞출 수 있을 뿐만 아니라 단어 전달도 매우 중요한 부분을 바꿔서 앱의 원래 녹음과 비슷하게 만듭니다. 여기서 AL 및 자동화가 작동하고 자동화된 워크플로우가 있습니다. 각 작업을 수행하면 화자 식별을 통해 서로 다른 종류의 기술을 트리거하고 용어집, 어, 어, 그리고 합성 음성의 에너지 번역을 통해 메타데이터를 생성합니다.이것은 사람이 할 수 있는 일은 아니지만 위험할 수 있습니다. 왜냐하면 도중에 어떤 실수가 생기면 전반적으로 그 실수를 곱씹을 수 있기 때문입니다. 어, 그래서 제 생각엔 자동화를 내려가서 일부 플랫폼을 이용해서 직접 해보려고 한다면, 인간들이 섞여 있을 때 오류가 발생할 위험이 있다는 걸 아실 겁니다.진짜 중요한 건 번역본의 QC인 QC QC에 관한 거예요.음, 그리고 최종 합성된 목소리의 QC도 있고요.그리고 앞으로 나올 역할 변화는 음, 합성된 목소리인 QC의 번역에 관한 것이라고 말씀드리고 싶습니다. 그런 것들이 한 사람으로 합쳐져 모델의 참여를 이끌어낼 것입니다.음, 이 모든 것의 핵심에 대해 말씀드리고 싶은데요, 어디가 적절할까요?그리고 저는 이런 걸 만들 수 있는 자유를 얻었죠.저는 콘텐츠의 눈물을 만들어내는 것을 콘텐츠 가치 스펙트럼이라고 부릅니다. 음, 그리고 이 콘텐츠를 정보 기반 뉴스, 스포츠 라디오로 분류하려고 하는데, 아주 짧은 형식으로도 모델이 될 수 있습니다.읽으실 수 있습니다.이 중 많은 부분이 콘텐츠 제작자와 소셜 미디어에 관한 내용입니다.음, 그리고 티어 2는 표준 프로그램이고, 우리가 보고 즐기는 대부분의 콘텐츠는 이 카테고리이고 상위 카테고리는 정말 가성비가 높은 극장용 가상 시리즈 프랜차이즈입니다.중요한 점은 특히 이중 공백을 사용할 때 콘텐츠를 알아야 한다는 것입니다. 왜냐하면 두 칸을 사용할 때는 콘텐츠가 그렇지 않기 때문이죠. 전반적으로 모든 것이 평등한 것은 아니기 때문입니다.설명이나 게임 같은 몇 가지 항목도 말씀드리고 싶은데요. 음, 설명이나 게임, 음, 설명에 대한 설명에는 큰 가치가 있습니다. 어, Games is A는 대체로 이 모든 아이들을 통틀어 약간 상쇄된 것 같아요.음 그럼 어디서, 어디서, 어디서, 어떻게, 어떻게, 어떻게 이 일에 참여하죠?따라서 소비자 측면에서는 투자로 인해 하위 계층에 대한 기대치가 낮고 상위 계층에 대한 기대치가 높습니다.구독료를 지불하거나 시청자가 극장에 가면 해당 콘텐츠에 대해 더 많은 기대를 하게 됩니다.마찬가지로 공급망 측면에서도 기회는 높고 하위 계층에서는 기회가 낮고 상위 계층보다 훨씬 더 위험합니다.기억하시겠지만 순수 기술에는 일반적으로 이런 하위 계층의 매니지드 서비스가 제공되는데, 티어 3 영역을 이끌어 내기도 합니다. 음, 그리고 티어가 올라갈수록 유닛들이 훨씬 더 많이 개입하게 되죠.마지막으로 말씀드리고 싶은 부분은 정말 재능에 관한 것 같아요.음, 저와 여러분은 상위 계층, 즉 티어 2와 티어 1을 보고 계시는데 티어 1은 아마도 미디어 엔터테인먼트 콘텐츠의 약 20% 정도라고 할 수 있습니다.2단계, 아마도 인재는 정말 중요합니다. 우리가 이 기술을 유럽이나 미국뿐만 아니라 유럽이나 미국의 노동 조합에 노출시키기 시작하면서 그들의 역할과 직업이 무엇인지에 대한 우려가 있습니다. 그리고 이것은 매우 실제적인 문제이고, 어떻게 그들의 목소리가 전달될 수 있는지 설명하지 않는 것은 우리에게 달려 있습니다. 아시다시피 AI 공간에서 말이죠. 또한 역할이 어떻게 변할까요? 감독이든 번역가이든, 이 경우에는 기술을 활용하기 위해 적응하는 방식이 어떻게, 어떻게, 어떻게, 어떻게 변할까요?잘 작동하고 있고 여러 단계에 걸쳐 작동하고 있다는 것을 알고 있기 때문입니다.그럼 마지막 질문은 이겁니다. 오늘날 우리는 어디에 있는 걸까요?제 예상으로는 A I, 어, 특정 티어 42, A 3에 대해 다루었는데요. 그리고 우리가 목표로 삼을 가장 적합한 분야는 바로 이 티어 2 콘텐츠 라이브러리, 패션 리얼리티 프로그램, 오리지널 작품, 어린이 애니메이션입니다.제 생각에는 한 시간, 아니 2~5년 정도 걸릴 것 같아요. 티어 1의 다음 해에는 이런 상황이 빠르게 진전될 것입니다.괜찮아요.글쎄요, 당신에 대해서는 잘 모르겠지만 저는 아직 갑상선에 걸린 상태에요.다시 왼편으로 돌아가세요.네.마지막까지 가는 것의 이점은 슬라이드에서 생명을 얻을 수 있다는 것입니다.그리고 제 생각엔 이게 짧은 시간 동안 맥락과 틀을 짜는 것도 괜찮은 것 같아요.물론, 대화, 당신에 대해 궁금한 점을 물어보세요.그 모든 걸 다 해봐. 내가 대답을 해줘야겠어.물론이죠.고마워요.문제 없어요.음, 아니, 알다시피, 로컬라이제이션은, 제 생각엔 그렇게 생각해요, 그렇죠?기술의 경우, 하지만 너무 복잡합니다.제 생각엔, 스콧이 얘기했던 것 같아요. 음, 재능이 개입되어 있어요. 그냥 단순한 번역 문제가 아니죠, 그렇죠?어떤 것을 다른 언어로만 번역하는 것이 아니라 어떻게 번역할지 알아내는 데에는 사실 미술사의 한 부분이 있습니다. 하지만 어떻게 영어를 번역하나요?미국에서는 매우 현지적이고 다른 지역에도 적용할 수 있는 농담을 실제로 어떻게 만들 수 있을까요?그렇죠?제 생각에 미국 관객들은 아마 다른 나라에 있는 농담들에 대해 덜 알고 있을 겁니다.그래서 미국 시청자들이 미국 밖에서 콘텐츠를 더 쉽게 접할 수 있게 만드는 것은 정말 어려운 일입니다.그래서 사람들이 그 과정에 계속 참여하도록 할 수 있다는 건 그냥 상대방이 아니기 때문이죠.그럼 완전히 새로운 직업 범주죠?시뮬레이션 코미디언.글쎄요, 콘텐츠 폭발에 대해 생각해 보는 것도 흥미로워요.제 말은, 저희는 이미 디스커버리 중인 콘텐츠에 대해 A I에 대해 많이 생각하고 있습니다.만약 그렇다면 저는 90,000개의 타이틀처럼 주어진 시간에 RS 코드 서비스를 이용하지 않습니다.그렇다면 소비자는 어떻게 탐색하면서 원하는 콘텐츠를 찾을 수 있을까요? 응용 프로그램이 있다는 것은 정말 흥미로웠어요. 저는 즐거운 시간을 보내고 있는 세 남자와 함께 상어에 관한 영화를 만들고 싶어요.쇼 메이커들의 자연스러운 표현처럼 말하자면, 사실 우리가 당신을 위해 영화를 준비했을지도 몰라요.음, 키워드를 찾아내는 배우라면 알 수 없겠지만, 내용상 발견은 이미 어려운 일이죠.그리고 우리는 A I를 사용하여 이 문제를 해결하고 해외 콘텐츠를 추가하고 있습니다.제 말은, 이걸 꺼내면 동의하실 겁니다. 논리적인 결론이 될 수도 있습니다. 어디에나 있는 모든 콘텐츠가 극단적일 수 있습니다.모국어로만 소비할 수도 있잖아요, 그렇죠?그리고 실제로 글로벌 카탈로그를 손쉽게 이용할 수 있다면 어떤 콘텐츠를 발견할 수 있을까요?승자와 패자는 누구일까요?벌써 흥미롭네요. 콘텐츠 폭발에 대해 말씀하셨잖아요.실제로 이 기술의 일부를 극한까지 끌어올린다면 전 세계 콘텐츠 시장이 활기를 띠게 될 것입니다. 심지어 그 난제를 한 단계 끌어올릴 수도 있습니다.놀라운 기회이기도 하지만 승자와 패자가 없는 것처럼 선물일 뿐이죠.아니요, 확실히 더 많은 콘텐츠가 있습니다.제 말은, 분명히 더 많은 콘텐츠에 대한 욕구가 있고, 세상에는 꼭 들어가지 않는 콘텐츠도 많이 있습니다. 저는 USA라고 말하고 싶습니다. 음, 음 음, 영어가 아닌 콘텐츠를 확실히 찾는 추세가 점점 늘어나고 있는 것 같아요.그래서 LA에서 영어 공부를 많이 하는 이유가 바로 여기에 있습니다. 하지만 저는 A, 제가 특히 큰 언어를 도와줄 수 있다고 생각해요. 음, 아시다시피, 일본에는 브라질 텔레노벨라가 있는데, 보통 브라질식 포르투갈어를 구사하는 일본어 번역가가 많지 않고, Lns와 번역으로의 전환은 이러한 노력에 정말 도움이 될 것입니다.제 생각엔 C, 네, 그냥 이런 간단한 걸 생각하고 있었어요. 당신이 말하는 장면이란 장면의 감정을 알고 그 장면에서 웃기거나 진지하게 만들기 위해 규칙적으로 그 비트가 나오도록 하는 장면이죠.그럼 그 씬을 더 많이 만들어내야 할 수도 있는 언어 안에서 어떻게 할 수 있을까요?거기서 A가 들어와서 그 장면의 비디오 부분을 만들어내는 건가요?그러면 더 오래 기다릴 수 있어요.따라서 언어는 서두르지 않습니다.그래서 당신이 빨리 말하는 것 같아요. 포르투갈어, 스페인어, 히브리어, 러시아어가 무엇이든, 그 장면에서 어떤 것이 있든 간에, 그 언어를 제대로 구사할 수 있고, 자연스럽게 느껴지도록 연주할 수 있죠. 네, 제가 여기 있는 것 같아요. 특히 이미지 쪽이요.3에서 5까지 맞아요.지역에 맞게 현지화하고 콘텐츠를 제작할 수 있게 되면 이미지에서 어떤 작업을 수행하는지, 이미지를 전송하고, 적절하게 만들고, 해당 지역에서 더 재미있고 더 성공적으로 만들 수 있는 많은 자유도가 있을 것입니다.아직 잘 모르겠어요.그냥 스케치를 만지고 있는 거예요. 보험에 적혀있는 거죠.네, 이 사진도 흥미로워요. 이미지에 어떤 것이 닿았을 때 영향을 받는다는 것만으로도 흥미로워요. 현지화를 위해 바꾸는 것뿐만 아니라 씬을 확장하는 것에 대해 이야기하기 시작하면 창의성이 떨어지고 내러티브를 바꾸는 거죠?다시 말씀드리지만, 다시 말하지만, 또 다른 인간과 인간이 반복해서 재생되어야 할 모든 방식으로 돌아와야 한다는 거죠. 그리고 우리에겐 음악과 그 밖의 복잡한 것들이 있죠.다시 인간적인 부분으로 돌아가 봅시다.이미 많이 들어봤지만 아직 모르는 것도 많죠.우리가 할 수 있는지, 하고 싶은지 모르는 것들이 많이 있습니다. 그래서요.어, 새로운 직업, 직업 훈련, 민주화 덕분에 더 많은 일자리를 얻을 수 있게 됐어요. 그리고 이런 일에 대해 사람 쪽에 대해 어떤 생각이 드시나요?네, 제 생각엔 사람들이, 그러니까, 우리에겐 아직 사람이 필요한 것 같아요, 알겠죠?내 말은, 이런 것들은 인간이 그들을 인도해야 한다는 거죠.다시 말하지만, 이것들은 우리가 사용할 수 있는 새로운 도구이지 인간을 대체할 수 있는 도구가 아닙니다.다시 말씀드리지만, 우리 커뮤니티의 혁신은 보통 일부 일자리를 희생시키지만, 바라건대, 이제는 덜 숙련되고 더 하찮은 일을 할 수 있는 일을 하는 것이었으면 좋겠습니다. 이제는 사람을 데리고 실제로 더 가치 있는 창조적인 일을 할 수 있게 되었으면 좋겠습니다.어, 그게 궁극적인 목표예요. 인간에게 더 나은 접근성을 제공하고 잘하는 일에 더 좋은 시간을 할애할 수 있게 하는 게 맞아요.컴퓨터로 하여금 제가 잘 할 수 있는 일을 하도록 내버려 두세요. 제 생각엔 여러분도 그 중 일부를 계산할 수 있을 것 같은데요. 자, 이제 내려가보죠. 아무 생각도 하지 마세요.네, 제 생각엔 애니메이션에 관해서도 마찬가지인 것 같아요. 음, 그리고 어떤 감독님이 “보세요, 나, 이 시간을 맞춰야 돼요.” 라고 말하거나 라이브 액션을 원하시는 분도 계실 거예요.제가 원하는 건, 음, 더 많은 선택지를 주실 수 있나요?변수를 좀 더 알려주실 수 있나요? 예를 들어, 저는 그냥 무대를 꾸미고 싶고, 40가지 쓰레기통을 원해요. 그리고 장면과 정말 잘 어울리는 쓰레기통과 의자가 있으면 좋겠어요.전부 다 됐어요.저한테 다양한 변형을 줄 수 있겠어요? 그러면 그걸 주도할 수 있겠죠.음, 또 주위에서 대화가 오가고 있네요. 애니메이션이죠.하지만, 어, 그들이 말하는 캐릭터가 있다면, 네이션에 있는 누군가가 그 포즈나 캐릭터를 다른 곳으로 옮기게 하고 싶다면, 건물에서 왔을 때 슈퍼히어로라고 서투른다면 어떻게 착지할까요?저 건물에서 나와 다른 플랫폼으로 가세요.그래서 자연스러운 모습과 느낌이 연출되죠.언어의 곡선이었나요?그 캐릭터에서 따온 이름인 것 같은데요.그럼 어떤 옵션이 더 필요할까요?따라서 스토리에 더 많은 시간을 할애할 수 있고, 더 나은 것을 만들고 만드는 데 더 많은 시간을 할애할 수 있습니다. 하지만 궁극적으로는 여전히 그런 일을 할 사람들이 필요할 것 같아요.그냥 그들이 사용하는 도구의 종류일 뿐이죠.아시다시피, 제 얘기는 확장하자면 접근의 민주화에 대해 이야기하죠.제 첫 석사 학위인데, 속도라는 주제가 무엇인지, 얼마나 많은 사람들이 콘텐츠에 대한 접근을 지원한다고 이야기하는지 보는 게 흥미로워요.그래서 접근의 민주화가 이루어졌죠.제 생각에는 이런 것들이 좀 더 민주적인 창작자들에게 일종의 도구 키트라고 생각해요. 그리고 사람들이 창의적인 비전을 가지고 그 비전을 달성하고 유통을 통해 소비자들이 틈새 시장을 찾고 콘텐츠를 찾을 수 있게 해주는 도구 키트라고 생각해요.콘텐츠가 폭발적으로 늘어나면서 툴킷도 자유롭게 이용할 수 있게 된 것 같아요.그리고 티어 1 크리에이터들의 손에 달려 있습니다. 헐리우드 최고의 V FX 스튜디오를 이용할 수 없는 티어 3에 있는 사람들을 데려다 줄 수 있습니다. 하지만 이제 잠재적으로 이 기술을 통해 꿈에 그리던 영화를 만들 수 있는 것은 놀라운 기회라고 생각합니다.물론 이런 도구들 중 일부는 숙련도가 낮은 사람들에게도 유용하다는 것을 보여줬습니다.그럼, 우리가 어떤 훌륭한 제품을 만드는지 누가 알겠어요?알겠어요.네, 말씀드렸는데 QC가 알파벳을 평가할 수 있어야 해요. 특히 창의적인 분야에서 말이죠.그런 결정은 누군가가 내려야 합니다.누군가는 '예'라고 말해야 합니다.어, 이 음성 모델이 맞거나, 아니면 원작에 반해서 누군가 이 번역이 맞다고 말해야겠네요.결정을 내리기 위해 많은 노력을 기울이고 있는데 그 사람이 툴킷을 운영할 예정이라면 누군가 이미지를 봐야 합니다. 모델을 조사하는 일종의 애플리케이션에서 끊임없이 이렇게 말하죠. 좋아요, 맞아요.그리고 그런 활동은 오늘날에는 실제로 존재하지 않습니다.그것들은 서로 다른 구멍에 흩어져 있습니다. 제 생각에는 이런 사람들이 자신의 안목을 잘 활용할 수 있는 능력, 즉 어떤 것이 올바른 프로그램인지 파악할 수 있는 재능을 쌓을 수 있을 뿐만 아니라 툴킷으로 조작할 수 있는 능력 중에서 A가 승자가 될 것이라고 생각합니다.제 생각에 이런 가드들을 조금이라도 들여다보면 근본적으로 여러분도 여전히 제작자가 결과물의 품질을 책임져야 한다고 생각합니다. 어떤 도구를 사용하고 있든 상관 없이 말이죠.이것이 바로 크리에이터가 시청자와 신뢰를 가질 수 있는 방법 중 하나입니다.이런 도구를 사용해 시청자를 오도하거나 시청자를 놓칠 수는 없습니다.그리고 제가 공개적으로 본 적이 있는데, 이 반지의 몇몇 예들은 너무 공격적으로 보여서 이런 기술을 실제로 소비자를 무시하고 소비자를 오도한다고 오도하는 방식으로 말이죠.그래서 그들은 근본적으로 자신이 내놓은 콘텐츠에 대해 근본적으로 책임을 지는 창조자들의 손에 달려 있습니다. 그리고 이것들은 그들이 작업을 더 잘 할 수 있게 해주는 도구입니다.가장 이상적인 것은 창의적 잠재력과 그들의 새로운 아이디어에 더 많은 시간을 할애하면서도 결과물에 대한 근본적인 책임을 질 수 있다는 것입니다. 이전 요점을 되돌아보면 실제로 결정되는 것은 사용된 모델과 그 모델에 대한 입력에 의해 결정된다고 생각합니다.의견을 말씀드리자면, 전체 스펙트럼을 기준으로 이러한 기술을 앱솔루티에 배포하는 것에 대해 생각하고 있습니다.제가 말하고자 했던 건, 우리는 여전히 인간의 이야기를 듣고 싶어하는 것 같아요. 그리고 제가 그 이야기를 들려줄 수 있는 시점에는 도달하지 못한 것 같아요, 그렇죠?이런 것들은 인간이 주도하는 도구인 셈이죠. 다른 방법으로는 당신의 요점까지 들려줄 수 있는 이야기를 들려주는 거죠.그리고 창의성은 여전히 이 과정에서 없어서는 안 될 부분입니다.창조할 수 없는 무언가를 창조할 수 있는 능력을 줄 뿐이죠. 그게 제가 다른 사람의 능력에 영향을 미치죠. 다른 사람의 안정성에는 영향을 주지 않았죠, 그렇죠?그래서 더 많은 창의력을 발휘하고 도구에 더 많이 접근할 수 있게 되면 더 많은 기회, 더 많은 이야기, 더 많은 콘텐츠를 얻을 수 있습니다. 결국에는 1분 반 정도 남았을 때 사람들로 가득 찬 공간이 생깁니다. 여기 앞에 질문을 하고 싶은 사람이 있나요? 제가 바로 저기 가면 우린 어디로 갈까요?아주 색다른 토론을 해주셔서 감사합니다.어, 특히 스콧 씨, I Martin으로 멋진 스크린샷을 찍어주셔서 감사합니다.저는 A I 번역 기술의 창시자입니다.그리고 이 기술에는 라틴계 사람들이 많아서 아마 제가 물건들을 옮겨 놓았을 거예요. 팬, 팬, 시리즈 같은 것들이죠.하지만 물론 상황을 아주 잘 설명해 주죠.네, 좋으니까요.어, 그리고 제 의견을 말씀드리고 싶은데요. 어, 어, 티어 원 티어라, 아주 빨리 도달할 거라는 거죠.하지만 문제는 현재 대다수의 스튜디오가 티어 23과 티어 4를 사용하지 않는다는 것입니다.그리고 매일 예산을 너무 많이 쓰죠.그냥 주목하는 모델인가요, 아니면 시장에 출시되어 비용 절감을 위해 다시 만들어지는 마지막 솔루션에 관심을 기울이고 계신가요?그리고 대부분의 경우 번역 품질을 향상시키기도 하죠.인간의 번역과 비교해보죠. 왜냐하면 인간은 군대 보건부나 다른 병원의 기술처럼 번역을 할 수도 없고, 할 수도 없으니까요.정말 좋은 지적이네요.고마워요.그리고 이 모든 이야기를 마치기 전에 누군가의 질문이 하나 있어요.마이크로 좀 넘길 수 있어요?네, 다시 Mount Melanie의 주제로 돌아가고 싶어요. 콘텐츠 제작자의 관점을 충분히 이해하고 있어요.왜 이 기술이 사용되는 걸 보고 싶으세요? 제 생각에 우리는 두 가지 별개의 문제를 다루려고 노력하고 있는 것 같아요.그 중 하나는 고객에게 신뢰할 수 있는 원본 소스를 돌려주는 것이었습니다.그리고 두 번째 부분은 별도로 현대화를 위한 무언가를 마련해서 라이선싱을 할 수 있도록 하는 것이라고 생각합니다.제 의견을 말씀드리자면, 아니요, 질문이 있습니다.질문이 있어요.이런 일이 일어나지 않았으면 좋겠어요. 공정 사용과 속도 저하에 어떻게 대처해야 할까요?누가 음악을 좋아하는지에 대한 이 모든 논쟁을 되살려서?제 생각엔 모든 게 느려질 것 같아요.왜 이게 좋은 생각이라고 생각해요?좋은 질문이네요.음, 네, 근본적으로 두 문제에 대한 동일한 기술적 해결책이라고 생각해요. 그래서 두 문제를 하나로 합친 거죠.디지털 콘텐츠를 누가 소유하고, 누가 소유하는지를 확인할 수 있는 출처가 필요합니다. 현실 세계에서 디지털 콘텐츠의 경우 소비자 문제가 해결되죠.또한 이러한 모델이 데이터를 어떻게 사용하는지에 대한 문제도 해결할 수 있습니다.속도 문제는 소송이 있는 해결책이 아닌 기술적 해결책을 제시해야 하는 이유 중 하나라고 생각해요. 그렇죠.그래서 우리 모두 동의할 수 있을 것 같아요. 움직임이 있을 거고, 이미 이 모델들이 무엇을 기반으로 훈련되었는지 이해하려는 움직임이 있는 것 같아요.음, 그건 단지 보상상의 이유 때문이 아니에요.또한 그들이 어떻게 성과를 내고 있는지 이해하기 위한 것이기도 하죠.그래서 제게는 기술적인 해결책을 제시하는 방법을 예로 들자면, 그러니까, 사실, 뭐, 뭐, 소송이나 라이센싱과 반대되는 그런 접근법을 가지고 있기 때문에 속도를 늦출 필요가 없다고 생각합니다. 왜냐하면 기술이 존재하고, 소송이나 라이센싱과 반대되는 접근 방식을 취하거나, 꼭 규제 중심이어야 하는 표준이 있어야 하기 때문이죠. 이게 왜 속도를 늦출 수 있는지 알겠어요.하지만 제 생각에 기술적인 해결책은 바로 우리가 제시해야 하는 것이죠. 그렇지 않으면 아키텍처를 강요하는 거죠.그리고 그 아키텍처가 어떤 것이어야 하는지를 정의하는 데 우리가 도움을 줄 수 있을 것 같아요.기술이 그 목표에 도달하는 길입니다.다른 사람의 빠른 답변이 필요했는데 질문이 있었어요.개인적으로 연락해 주셔서 감사합니다.이 자리에 와주신 모든 분들께 감사드립니다.맞아서 큰 박수를 받고 쇼플로어에 나가서 무언가를 배워요.