신호 및 시계열 데이터를 위한 딥러닝
Автор: MATLAB Korea
Загружено: 13 янв. 2020 г.
Просмотров: 3 156 просмотров
인공 지능 (AI) 기술을 사용하여 신호 및 시계열 데이터에 대한 예측 모델을 개발하는 것은 음성 인식, 레이더 타겟 분류 및 생체 신호 인식을 비롯한 다양한 응용프로그램 및 산업 전반에 걸쳐 활발한 연구가 이루어지고 있습니다.
MATLAB EXPO 2019 Korea에서 진행된 본 세션은 MATLAB®을 활용하여 손쉽게 신호 및 시계열 데이터에 딥러닝을 적용하는 방법을 소개합니다. 특히, wavelet scattering을 활용한 자동 특징 추출, 앱을 활용한 ground-truth labeling 기법 등 첨단 신호 및 오디오 처리 기술 및 데모를 확인하실 수 있습니다.
추가로 MATLAB을 활용한 AI 개발 방법을 소개하며 아래의 내용이 포함됩니다.
신호예측 모델의 정확도 향상을 위한 신호 전처리 기술 및 앱
고급 신호처리 특징 분석을 위한 feature engineering 기법
ONNX™ (Open Neural Network Exchange)를 활용한 다른 딥러닝 framework와의 협업 방법
GPU, multi-GPU 및 클라우드를 활용한 연산 확장
MATLAB EXPO 2019 Korea 세션 다시보기: https://bit.ly/36xpXxW
MATLAB 평가판 다운로드 (30일 무료): https://bit.ly/2Poabzs
© 2019 The MathWorks, Inc. MATLAB and Simulink are registered trademarks of The MathWorks, Inc. See www.mathworks.com/trademarks for a list of additional trademarks. Other product or brand names maybe trademarks or registered trademarks of their respective holders.

Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: