-
테슬라 인공지능 학습 & 자율주행 투자자 행사 Q&A (인공신경망 / 뉴럴넷 / 데이터 / 시뮬레이션 / 라벨링 / 카메라 / 라입니다 / 레이더 / 알고리즘 / AI) 대박카테고리 없음 2020. 2. 11. 21:36
>
*Tesla Autonomy Day행사에서 발표한 스토리도 1. 테슬라의 인공 지능 뉴롤넷(신경망은 어떻게 구성되어 학습되는가?사람은 첼로, 보트, 이구아 본인, 가위 끝을 보면 금방 구별할 수 있지만 컴퓨터는 그렇지 않다고 소리. 컴퓨터에 앞선 단순한 방대한 픽셀이 격자상에 놓인 것으로 각 픽셀은 밝기의 값인 숫자로 표현된다.
>
<출처:테슬라 유튜브:Tesla Autonomy Day>-이구아 나쁘지 않지만 몸의 색깔을 바꾸고 다른 동작을 취해 배경이 바뀌어도 사람은 이구아 나쁘지 않다는 것을 알 수 있다sound. 눈을 통해 대상을 보고 신경을 통해 뇌로 신호가 전달되는 과정 등을 통해 수위학습되었기 때문에 - 이러한 인간의 학습 과정을 컴퓨터로 가져온 것이 즉시 '인공신경망'
>
<출처: 테슬라 유튜브: Tesla Autonomy Day> ※ 인공신경망의 구조와 학습에 대한 자세한 설명은 아래 참조
-자율 주행에서 예를 들면 이하의 이미지 같은 상황 1시 에쵸무에 인공 지능이 판단하는 것으로 볼 수 없는 다음만 따라가다 계속 직진하고 의무다 수도 있음
>
<출처: 테슬라 유튜브: Tesla Autonomy Day>
>
<출처:테슬라 유튜브:Tesla Autonomy Day> -두곳에서 인간이 해야 할 1은 인공 지능 알고리즘을 수정하는 일이 없고, 아래 아프소지처럼 표시(Labeling, 정답 제공)이 정확하게 된 데이터를 제공한다. 그러면 인공지능은 학습하고 스스로 알고리즘을 수정해서 새로운 특징을 찾고 정확도를 높입니다.
>
<출처:테슬라 유튜브:Tesla Autonomy Day> 2. 테슬라의 차량이 인공 지능 개발에 왜 중요한가.-테슬라도 자율주행을 위해 시뮬레이션 데이터를 인공지능에 많이 주입하고 있는데 실제 주행 데이터를 대체할 것은 아무것도 없다-시뮬레이션에서는 대상이 본인의 환경 묘사, 물리법칙, 주변 모든 물체의 움직인다- 등을 모델링하는데 상당히 어렵고 정확하지 않은 소음-특히 눈의 본인 비가 내리는 상황, 갑작스러운 도로공사, 차도상의 보행자와 같은 하나도 반적이지 않은 상황을 전체 시뮬레이션 할 수 없다-인공신경망 학습에 있어서 필수는 방대하고 다양한 그리고 실제 세계를 반영한 데이터. 그래서 도로 위를 달리는 수백만 대의 실제 차량을 보유한 테슬라는 자율주행 개발에 상당히 유리한 위치를 차지한다-역시 인간이 일일이 데이터에 라벨링(무엇을 의미하는지 태그를 붙이는지)을 하는 것은 상당히 비효율적이다.테슬라 차량은 이러한 라벨링을 대체하기 때문에, 라벨링 된 대량의 데이터를 얻기 쉽다.
>
<출처:테슬라 유튜브:Tesla Autonomy Day> - 그래서 만약 테슬라 차량의 전방에 옆 차선의 차가 끼어들면, 이 녹화된 영상에 차선 변경 시 걸리는 때때로 이본인의 차량 간 거리 등에 관해 인간이 주석을 달 수 있다. 이 데이터는 다시 신경망의 학습에 사용되고 성능을 더욱 높이게 되는 것 3.Depth perception거리 인식&카메라 비전 -테슬라 차량은 라이더 없이 카메라를 사용.전혀 가보지 않은 길이 본인도 잘 보이지 않는 경사로, 커브길 등을 가는데도 불구하고 높은 예측력을 보이는 소리
>
<출처:테슬라 유튜브:Tesla Autonomy Day>-인간의 경우, 두 눈으로 대상을 보지만 왼쪽과 오른쪽 눈, 해당지만 3개가 삼각형의 구조를 이룬다. 뇌는 이와 같이 각 눈으로부터 오는 정보를 통합해 대상의 멀고 가까움을 인지. 따라서 한쪽 눈을 감으면 대상의 원근을 느끼기 어렵다-동물의 경우 대부분은 눈이 양쪽으로 많이 떨어져 있어 각 눈에서 들어오는 대상이 거의 겹치지 않는다. 그러므로 본인의 머리를 여러 방향으로 움직이고 거리를 판단 -테슬라 차량에 달린 카메라들은 몇초간 운행하면서 찍은 데이터만 Multi-view stereo기술을 통해서 이들을 통합하여 멀고 가까운 거리가 인식되게 3차원으로 만들어 낼 수 있다. 사람의 물건을 보는 듯한 방법
자율주행에 있어서 거리를 인식하는데 라임입니다.없이 카메라를 이용하는 것만으로도 충분히 높은 성능을 내고 있다.라임입니다라는 카메라 비전에 비해 정보가 더 부족하고, 카메라는 더 디테일한 정보를 제공한다-차도에 쓰레기 같은 이물질이 있으면 라임이라면 뭔지 몰라 표준 장애물로 소견하지만 카메라 비전은 이를 구별할 수 있다. 또한 옆으로 달리고 있는 자전거가 내 쪽으로 올지 반대로 갈지도 카메라 비전으로 머리를 움직입니다, 몸의 방향 등을 보고 판단할 수 있는 소음. 이는 운행 및 안전 제어에 큰 영향을 미침 4.Q&A(1)인공 지능 신경망에 활성화 함수에서 ReLU함수를 썼는데 다른 함수를 사용하는 유연성이 있는가?유연성 있는 소음 tan h자신 sigmoid함수를 사용하기도 하는 소리 (2)14쟈싱 노핑펫 공정 기반이라고 했지만 10잔 노자 키 마코토 7쟈싱노에 대해서는?-제가 디자인을 시작했을 때는 우리가 구매하기 바란다 IP가 10쟈싱의 기반이 없었기 때문에 14자신 노루를 해야 합니다 소리. 해안세대 칩으로는 그 아래에서도 준비하는 소리 (3)엔비디아 제품보다 7배나 실행력이 높다는 것의 토우쯔룰 쉽게 설명하면?-7배나 큰 신경망을 사용할 수 있고 더 정교한 자율 주행 인공 지능이 가능 (4)AMD, 인텔의 프로세서 아키텍처의 방향이 다르지만 둘 중에 더 흥미의 아키텍처는?-관심은 있지만 테슬라에서 소견한 것이 아니라 소음. AMD와 인텔의 전부가 훌륭하지만 그들은 많은 고객을 위해 제품을 일반화시켜야 한다. 반면 우리는 오직 자율주행자 자신만 고려해 칩을 디자인할 수 있고 소프트웨어도 그 칩에 최적화시킬 수 있는 소음. 이에 관해서는 우리를 이기는 자가 없을 것 (5)라임니다 센서에 대한 소견은? - 전혀 불필요하고 비싼 만큼 한 부록일 뿐.금방 사라진 (6)에너지 소비량에 대한 자세한 설명?-모델 3은 마일 당 250와트가 목표 (7)차세대 칩 디자인의 주요 목표는?- 자세한 사항은 이야기할 수 없는 우쟈 신, 현재의 시스템보다 3배 더 좋은 성능을 내지 (8)칩을 독자의 대량 생산에 따른 비용 절감 효과는?~앞으로 연간 백만대 이상의 차가 생산되는데 그렇다면 칩 자체 대량 생산에 의한 비용 절감 효과가 충분히 있다. 제공에 관한 사고 없이 소리 (9)칩 디자인은 외부 IP를 사왔어?아니면 독자적인 설계. -동사 자체 설계 (10)칩 설계의 기본이 된 디자인이 있다면?- 없는 소리.다 독자 설계 (11)칩 생산은 어디?-삼성 (12)칩 관련 IP를 지키는 비결은?-소프트웨어 알고리즘을 베꼈다고 해도 그것을 설치하는데 힘든 시간이 걸린다. 그 사이에 우리는 몇 배 성장할 수 있다-또 다른 경쟁자에게는 fleet(테슬라 차량 같은 하드웨어)이 없다. 우리는 그들의 수백배가 넘는 소프트웨어와 하드웨어가 결합된 차량이 존재하며, 그 차량들은 인공지능 학습에 필요한 데이터를 계속 모으고 있다. 테슬라도 이와 같습니다 소리 (13) 다른 경쟁, 자율 주행사가 많은 시뮬레이션 주행 데이터를 축적하고 있지만 실제로 주행 데이터와 시뮬레이션 데이터의 차이가 미치는 효과는?-테슬라도 좋은 시뮬레이션 테스트 시스템을 갖고 있다. 그렇게 자신의 시뮬레이션은 실제 세계에서 자신의 타자 신고 극단적인 이상치(롱 테일, Long tail)을 잡아내지 못하 (14)차 랴은당 어느 정도 자신 많은 데이터를 수집하는가?-수집하는 데이터의 양도 중요하지만 어느 정도 자신의 다양한 데이터를 수집하느냐가 더 중요하다. 그래서 우리에게 필요한 데이터만을 수집할 수 있도록 전략을 취하는 소리 (15)인간의 차량 주행은 비이성적인 때가 많아서 테슬라의 자율 주행 차는 안전을 최우선으로 매우 조심할 텐데 그러면 어떻게 그 많은 롱 테일을 극복할 수 있는가?-계속하고 수많은 레어 케이스의 데이터를 수집하고 학습하고 있으며 성능은 좋아지는 소리 (16)99.99%의 극단적인 경우 자신의 보조용으로 라이 무니르에 도움이 될지 모르나?스페이스X의 경우 우주정거장 길을 찾아 도킹하는데 직접 개발한 라임니더 사용. 그러면 새 차에 '라임니다'를 쓰는 건 어리석은 짓이죠. 비전이 해결되면 운전에 지장이 없는 높은만 하고 쓸모가 없는 소리 -안개, 자신의 먼지 등은 레이더가 그것을 뚫고 시야를 제공할 수 있다, 준 고리 정보는 울트라 소닉이 제공 (17)의 차가 데이터를 선택적으로 회사에 보낸다고 했는데, 어떻게 이루어지고 그것은 실시간 처리인가, 아니면 저장된 정보를 처리하는가?우리가 원하는 정보에 대해 먼저 명시하고 있으며 관련 정보만 차량에서 회사로 전송된다. 이 과정은 차로 실시간 처리된다. 이 수백만대의 차량 자체가 모여서 거대한 데이터 센터와 보이는 소리 (18)눈이 많이 쌓이는 경우 카메라와 레이더에도 차선을 인식할 수 없지만 해결책은?-먼저 차선이 숨어 있는 여러 상황에 관한 데이터를 모아 여기 사람이 정답( 바른 차선이 그려진 데이터)를 제공하는 인공 지능을 학습시킨다. 이를 통해 이미 학습된 곳이라면 차선이 보이지 않아도 자율주행 가능-차선보다 중요한 것은 운전 가능한 공간인지 아닌지를 가리는 것. 사람도 그냥 그려진 차선뿐 아니라 주변 환경을 모두 고려해 올바른 차선으로 가고 있는지를 판단할 수 있도록 테슬라의 자율주행도 마찬가지다. 이러한 예측력, 판별력에 대해서는 매우 자심프지안이에요. 있어 올해 겨울에 확인하고 보이는 소리 -잘 알고 있는 마을 라면 GPS를 이용하기보다 표준 아는 길로 다니는 것이 더 효율적인 것처럼 학습된 인공 지능은 GPS, HD맵 등에 크게 의존할 필요 없는 소리 (19)더 정교한 맵에 관한 경쟁 회사들의 이야기가 많은데 어떻게 소견?고 정밀 GPS는 매우 좋지 않은 액세스. 그것은 매우 불안정하고, 도로상의 어떠한 사소한 전천도 인식하고 있지 않을 것