- 
Rust 기반의 수치 계산, 모델 추론, 학습을 위한 고성능 텐서 라이브러리 및 딥러닝 프레임워크
 
- 정적 그래프 프레임워크 수준의 최적화 성능을 유지하면서도 동적 유연성 확보
 
- 
GPU/CPU 백엔드 다중 지원
- GPU: CUDA, ROCm, Metal, Vulkan, WebGPU, LibTorch, Candle 등
 
- CPU: CubeCL, NdArray, Candle, LibTorch 기반
 
- 
Wasm 및 no_std 환경에서도 동작 가능
 
 
- 
Backend trait을 중심으로 설계되어, 다양한 하드웨어 및 런타임 환경에서 교체 가능한 백엔드 구조
- Autodiff 백엔드 데코레이터: 자동 미분 기능을 모든 백엔드에 추가
 
- Fusion 백엔드 데코레이터: 커널 융합 기능
 
- Router 백엔드: CPU와 GPU 등 다중 하드웨어 간 연산 분배 지원
 
- Remote 백엔드: 네트워크를 통한 분산 연산 및 원격 실행 가능
 
 
- 
학습 및 추론 전 과정 통합 지원
- Ratatui 기반 터미널 대시보드로 실시간 학습 모니터링
 
- 임베디드 장치부터 대규모 GPU 클러스터까지 동일 코드로 배포 가능
 
- PyTorch, Safetensors, ONNX 모델 가져오기 기능으로 기존 모델 재활용 지원
 
- WebAssembly 및 WebGPU 기반 브라우저 추론
 
 
- 
no_std 환경 지원으로 운영체제 없는 임베디드 디바이스에서도 실행 가능
 
- MIT/Apache 2.0 이중 라이선스로 배포