@@ -27,7 +28,7 @@
**React Native ExecuTorch** 是一个使用 React Native 在设备上运行 AI 模型的声明式工具,得益于 **ExecuTorch** 的支持 :rocket:。它为各种 LLM、计算机视觉模型等提供了开箱即用的支持。访问我们的 [HuggingFace](https://huggingface.co/software-mansion) 页面,以探索这些模型。
-**ExecuTorch** 由 Meta 开发,是一个创新的框架,允许在移动电话或微控制器等设备上执行 AI 模型。
+[**ExecuTorch**](https://executorch.ai) 由 Meta 开发,是一个创新的框架,允许在移动电话或微控制器等设备上执行 AI 模型。
React Native ExecuTorch 架起了 React Native 和原生平台功能之间的桥梁,使开发者无需深入的本地编程或机器学习知识即可高效地在移动设备上本地运行 AI 模型。
@@ -36,20 +37,20 @@ React Native ExecuTorch 架起了 React Native 和原生平台功能之间的桥
[](https://github.com/software-mansion/react-native-executorch/actions/workflows/ci.yml)
:blue_book: 目录
+目录
-- [:yin_yang: 支持的版本](#yin_yang-supported-versions)
-- [:earth_africa: 实际案例](#earth_africa-real-world-example)
-- [:llama: 快速入门 - 运行 Llama](#llama-quickstart---running-llama)
-- [:calling: 示例应用](#calling-demo-apps)
-- [:robot: 现成模型](#robot-ready-made-models)
-- [:books: 文档](#books-documentation)
-- [:balance_scale: 许可证](#balance_scale-license)
-- [:soon: 接下来是什么?](#soon-whats-next)
+- [支持的版本](#支持的版本)
+- [实际案例](#实际案例)
+- [快速入门 - 运行 Llama](#快速入门---运行-llama)
+- [示例应用](#示例应用)
+- [现成模型](#现成模型)
+- [文档](#文档)
+- [许可证](#许可证)
+- [接下来是什么?](#接下来是什么)
-## :llama: **快速入门 - 运行 Llama**
+## 快速入门 - 运行 Llama
**通过三个简单步骤,开始使用 AI 驱动的文本生成!**
-### :one: **安装**
+### :one: 安装
```bash
# 安装包
@@ -85,10 +86,10 @@ yarn add @react-native-executorch/bare-resource-fetcher
yarn add @dr.pogodin/react-native-fs @kesha-antonov/react-native-background-downloader
# 根据平台,选择 iOS 或 Android
-yarn expo run:< ios | android >
+yarn < ios | android >
```
-### :two: **设置和初始化**
+### :two: 设置和初始化
将此添加到您的组件文件中:
@@ -112,7 +113,7 @@ function MyComponent() {
}
```
-### :three: **运行模型!**
+### :three: 运行模型!
```tsx
const handleGenerate = async () => {
@@ -127,44 +128,39 @@ const handleGenerate = async () => {
};
```
-## :calling: 示例应用
+## 示例应用
我们目前托管了一些示例 [应用程序](https://github.com/software-mansion/react-native-executorch/tree/main/apps),展示了我们库的使用案例:
- `llm` - 展现 LLM 使用的聊天应用程序
-- `speech-to-text` - 准备用于转录任务的 Whisper 模型
+- `speech` - 语音转文字和文字转语音任务实现
- `computer-vision` - 计算机视觉相关任务
- `text-embeddings` - 用于语义搜索的文本表示计算
+- `bare_rn` - 适用于原生 React Native(无 Expo)的 LLM 聊天示例
-如果您想运行示例应用程序,请导航到其项目目录并安装依赖项:
+如果您想运行示例应用程序,请导航到其项目目录。然后安装依赖项并运行应用:
```bash
-yarn
-```
-
-然后,根据平台,选择 iOS 或 Android:
-
-```bash
-yarn expo run:< ios | android >
+yarn && yarn < ios | android >
```
> [!WARNING]
> 运行 LLM 需要大量的 RAM。如果您遇到意外的应用崩溃,请尝试增加分配给模拟器的 RAM。
-## :robot: 现成模型
+## 现成模型
我们的库中有许多现成可用的 AI 模型;完整列表可在文档中查看。如果您有兴趣运行自己的 AI 模型,首先需要将其导出为 `.pte` 格式。关于如何执行此操作的说明可在 [Python API](https://docs.pytorch.org/executorch/stable/using-executorch-export.html) 和 [optimum-executorch 说明](https://github.com/huggingface/optimum-executorch?tab=readme-ov-file#option-2-export-and-load-separately) 中获取。
-## :books: 文档
+## 文档
查看我们的文档,了解我们的库如何帮助您构建 React Native AI 功能:
https://docs.swmansion.com/react-native-executorch
-## :balance_scale: 许可证
+## 许可证
此库受 [MIT 许可证](./LICENSE) 许可。
-## :soon: 接下来是什么?
+## 接下来是什么?
若要了解我们的计划和发展,敬请访问我们的 [milestones](https://github.com/software-mansion/react-native-executorch/milestones)。
diff --git a/readmes/README_es.md b/readmes/README_es.md
index e2f8540d2c..1080d433d2 100644
--- a/readmes/README_es.md
+++ b/readmes/README_es.md
@@ -14,6 +14,7 @@
+
@@ -27,7 +28,7 @@
**React Native ExecuTorch** ofrece una forma declarativa de ejecutar modelos de IA en el dispositivo utilizando React Native, impulsado por **ExecuTorch** :rocket:. Proporciona soporte listo para usar para una amplia gama de LLMs, modelos de visión por computadora y más. Visita nuestra página en [HuggingFace](https://huggingface.co/software-mansion) para explorar estos modelos.
-**ExecuTorch**, desarrollado por Meta, es un marco innovador que permite la ejecución de modelos de IA en dispositivos como teléfonos móviles o microcontroladores.
+[**ExecuTorch**](https://executorch.ai), desarrollado por Meta, es un marco innovador que permite la ejecución de modelos de IA en dispositivos como teléfonos móviles o microcontroladores.
React Native ExecuTorch conecta React Native con las capacidades nativas de la plataforma, permitiendo a los desarrolladores ejecutar modelos locales de IA en dispositivos móviles de manera eficiente. Esto puede lograrse sin necesidad de una gran experiencia en programación nativa o aprendizaje automático.
@@ -36,20 +37,20 @@ React Native ExecuTorch conecta React Native con las capacidades nativas de la p
[](https://github.com/software-mansion/react-native-executorch/actions/workflows/ci.yml)
:blue_book: Tabla de contenidos
+Tabla de contenidos
-- [:yin_yang: Versiones compatibles](#yin_yang-versiones-compatibles)
-- [:earth_africa: Ejemplo del mundo real](#earth_africa-ejemplo-del-mundo-real)
-- [:llama: Inicio rápido - Ejecutar Llama](#llama-inicio-rápido---ejecutar-llama)
-- [:calling: Aplicaciones de demostración](#calling-aplicaciones-de-demostración)
-- [:robot: Modelos listos para usar](#robot-modelos-listos-para-usar)
-- [:books: Documentación](#books-documentación)
-- [:balance_scale: Licencia](#balance_scale-licencia)
-- [:soon: ¿Qué sigue?](#soon-qué-sigue)
+- [Versiones compatibles](#versiones-compatibles)
+- [Ejemplo del mundo real](#ejemplo-del-mundo-real)
+- [Inicio rápido - Ejecutar Llama](#inicio-rápido---ejecutar-llama)
+- [Aplicaciones de demostración](#aplicaciones-de-demostración)
+- [Modelos listos para usar](#modelos-listos-para-usar)
+- [Documentación](#documentación)
+- [Licencia](#licencia)
+- [¿Qué sigue?](#qué-sigue)
-## :llama: **Inicio rápido - Ejecutar Llama**
+## Inicio rápido - Ejecutar Llama
**¡Comienza con la generación de texto impulsada por IA en 3 sencillos pasos!**
-### :one: **Instalación**
+### :one: Instalación
```bash
# Instalar el paquete
@@ -85,10 +86,10 @@ yarn add @react-native-executorch/bare-resource-fetcher
yarn add @dr.pogodin/react-native-fs @kesha-antonov/react-native-background-downloader
# Dependiendo de la plataforma, elige iOS o Android
-yarn expo run:< ios | android >
+yarn < ios | android >
```
-### :two: **Configuración e inicialización**
+### :two: Configuración e inicialización
Agrega esto a tu archivo de componente:
@@ -127,44 +128,39 @@ const handleGenerate = async () => {
};
```
-## :calling: Aplicaciones de demostración
+## Aplicaciones de demostración
Actualmente alojamos algunos ejemplos de [aplicaciones](https://github.com/software-mansion/react-native-executorch/tree/main/apps) que muestran casos de uso de nuestra biblioteca:
- `llm` - Aplicación de chat que muestra el uso de LLMs
-- `speech-to-text` - Modelo Whisper listo para tareas de transcripción
+- `speech` - Implementaciones de tareas de voz a texto y texto a voz
- `computer-vision` - Tareas relacionadas con visión por computadora
- `text-embeddings` - Cálculo de representaciones de texto para búsqueda semántica
+- `bare_rn` - Ejemplo de chat LLM para React Native puro (sin Expo)
-Si deseas ejecutar una aplicación de demostración, navega al directorio del proyecto e instala las dependencias con:
+Si deseas ejecutar una aplicación de demostración, navega a su directorio de proyecto. Luego instala las dependencias y ejecuta la app con:
```bash
-yarn
-```
-
-Luego, dependiendo de la plataforma, elige iOS o Android:
-
-```bash
-yarn expo run:< ios | android >
+yarn && yarn < ios | android >
```
> [!WARNING]
> Ejecutar LLMs requiere una cantidad significativa de RAM. Si experimentas cierres inesperados de la aplicación, intenta aumentar la cantidad de RAM asignada al emulador.
-## :robot: Modelos listos para usar
+## Modelos listos para usar
Nuestra biblioteca incluye varios modelos de IA listos para usar; la lista completa está disponible en la documentación. Si te interesa ejecutar tu propio modelo de IA, primero debes exportarlo al formato `.pte`. Las instrucciones para hacerlo están disponibles en la [API de Python](https://docs.pytorch.org/executorch/stable/using-executorch-export.html) y en el [README de optimum-executorch](<(https://github.com/huggingface/optimum-executorch?tab=readme-ov-file#option-2-export-and-load-separately)>).
-## :books: Documentación
+## Documentación
Consulta cómo nuestra biblioteca puede ayudarte a crear funciones de IA en React Native visitando nuestra documentación:
https://docs.swmansion.com/react-native-executorch
-## :balance_scale: Licencia
+## Licencia
Esta biblioteca está licenciada bajo [La Licencia MIT](./LICENSE).
-## :soon: ¿Qué sigue?
+## ¿Qué sigue?
Para conocer nuestros próximos planes y desarrollos, visita nuestros [hitos](https://github.com/software-mansion/react-native-executorch/milestones).
diff --git a/readmes/README_fr.md b/readmes/README_fr.md
index 5d270bfb4f..1c73910681 100644
--- a/readmes/README_fr.md
+++ b/readmes/README_fr.md
@@ -14,6 +14,7 @@
+
@@ -27,7 +28,7 @@
**React Native ExecuTorch** offre une manière déclarative de faire tourner des modèles AI sur des appareils utilisant React Native, propulsé par **ExecuTorch** :rocket:. Il propose un support natif pour une large gamme de LLM, de modèles de vision par ordinateur, et plus encore. Visitez notre page [HuggingFace](https://huggingface.co/software-mansion) pour explorer ces modèles.
-**ExecuTorch**, développé par Meta, est un cadre innovant permettant l'exécution de modèles AI sur des appareils comme les téléphones mobiles ou les microcontrôleurs.
+[**ExecuTorch**](https://executorch.ai), développé par Meta, est un cadre innovant permettant l'exécution de modèles AI sur des appareils comme les téléphones mobiles ou les microcontrôleurs.
React Native ExecuTorch comble le fossé entre React Native et les capacités natives de la plateforme, permettant aux développeurs de faire tourner efficacement des modèles AI locaux sur des appareils mobiles. Cela peut être réalisé sans besoin d'une expertise approfondie en programmation native ou en apprentissage machine.
@@ -36,20 +37,20 @@ React Native ExecuTorch comble le fossé entre React Native et les capacités na
[](https://github.com/software-mansion/react-native-executorch/actions/workflows/ci.yml)
:blue_book: Table des matières
+Table des matières
-- [:yin_yang: Versions supportées](#yin_yang-versions-support%C3%A9es)
-- [:earth_africa: Exemple du monde réel](#earth_africa-exemple-du-monde-r%C3%A9el)
-- [:llama: Démarrage rapide - Exécution de Llama](#llama-d%C3%A9marrage-rapide---ex%C3%A9cution-de-llama)
-- [:calling: Applications de démonstration](#calling-applications-de-d%C3%A9monstration)
-- [:robot: Modèles prêts à l'emploi](#robot-mod%C3%A8les-pr%C3%AAts-%C3%A0-l'emploi)
-- [:books: Documentation](#books-documentation)
-- [:balance_scale: Licence](#balance_scale-licence)
-- [:soon: Quelle est la suite ?](#soon-quelle-est-la-suite)
+- [Versions supportées](#versions-support%C3%A9es)
+- [Exemple du monde réel](#exemple-du-monde-r%C3%A9el)
+- [Démarrage rapide - Exécution de Llama](#d%C3%A9marrage-rapide---ex%C3%A9cution-de-llama)
+- [Applications de démonstration](#applications-de-d%C3%A9monstration)
+- [Modèles prêts à l'emploi](#mod%C3%A8les-pr%C3%AAts-%C3%A0-lemploi)
+- [Documentation](#documentation)
+- [Licence](#licence)
+- [Quelle est la suite ?](#quelle-est-la-suite-)
-## :llama: **Démarrage rapide - Exécution de Llama**
+## Démarrage rapide - Exécution de Llama
**Commencez avec la génération de texte AI en 3 étapes faciles !**
-### :one: **Installation**
+### :one: Installation
```bash
# Installez le package
@@ -85,10 +86,10 @@ yarn add @react-native-executorch/bare-resource-fetcher
yarn add @dr.pogodin/react-native-fs @kesha-antonov/react-native-background-downloader
# Selon la plateforme, choisissez soit iOS soit Android
-yarn expo run:< ios | android >
+yarn < ios | android >
```
-### :two: **Configuration et Initialisation**
+### :two: Configuration et Initialisation
Ajoutez ceci à votre fichier de composant :
@@ -112,7 +113,7 @@ function MyComponent() {
}
```
-### :three: **Exécutez le modèle !**
+### :three: Exécutez le modèle !
```tsx
const handleGenerate = async () => {
@@ -127,44 +128,39 @@ const handleGenerate = async () => {
};
```
-## :calling: Applications de démonstration
+## Applications de démonstration
Nous hébergeons actuellement quelques applications [exemples](https://github.com/software-mansion/react-native-executorch/tree/main/apps) démontrant des cas d'utilisation de notre bibliothèque :
- `llm` - Application de chat montrant l'utilisation de LLM
-- `speech-to-text` - Modèle Whisper prêt pour les tâches de transcription
+- `speech` - Implémentations de tâches de parole en texte et de texte en parole
- `computer-vision` - Tâches liées à la vision par ordinateur
- `text-embeddings` - Calcul de représentations textuelles pour la recherche sémantique
+- `bare_rn` - Exemple de chat LLM pour React Native sans Expo
-Si vous souhaitez exécuter une application de démonstration, accédez à son répertoire de projet et installez les dépendances avec :
+Si vous souhaitez exécuter une application de démonstration, accédez à son répertoire de projet. Puis installez les dépendances et lancez l'application avec :
```bash
-yarn
-```
-
-Ensuite, selon la plateforme, choisissez soit iOS soit Android :
-
-```bash
-yarn expo run:< ios | android >
+yarn && yarn < ios | android >
```
> [!WARNING]
> L'exécution des LLM nécessite une quantité importante de RAM. Si vous rencontrez des plantages inattendus de l'application, essayez d'augmenter la quantité de RAM allouée à l'émulateur.
-## :robot: Modèles prêts à l'emploi
+## Modèles prêts à l'emploi
Notre bibliothèque contient un certain nombre de modèles AI prêts à l'emploi ; une liste complète est disponible dans la documentation. Si vous êtes intéressé à exécuter votre propre modèle AI, vous devez d'abord l'exporter au format `.pte`. Les instructions sur la façon de faire cela sont disponibles dans [l'API Python](https://docs.pytorch.org/executorch/stable/using-executorch-export.html) et le [README optimum-executorch](https://github.com/huggingface/optimum-executorch?tab=readme-ov-file#option-2-export-and-load-separately).
-## :books: Documentation
+## Documentation
Découvrez comment notre bibliothèque peut vous aider à construire vos fonctionnalités AI avec React Native en visitant notre documentation :
https://docs.swmansion.com/react-native-executorch
-## :balance_scale: Licence
+## Licence
Cette bibliothèque est sous licence [MIT](./LICENSE).
-## :soon: Quelle est la suite ?
+## Quelle est la suite ?
Pour en savoir plus sur nos futures plans et développements, veuillez consulter nos [jalons](https://github.com/software-mansion/react-native-executorch/milestones).
diff --git a/readmes/README_in.md b/readmes/README_in.md
index 293ef2a102..d4b355c881 100644
--- a/readmes/README_in.md
+++ b/readmes/README_in.md
@@ -14,20 +14,21 @@
+