Ovo je Android primjer koji koristi Microsoft Phi-3.5 tflite modele.
Android LLM Inference API omogućuje pokretanje velikih jezičnih modela (LLM) potpuno na uređaju za Android aplikacije, što možete koristiti za obavljanje raznih zadataka, poput generiranja teksta, dohvaćanja informacija u prirodnom jeziku i sažimanja dokumenata. Ovaj zadatak ima ugrađenu podršku za više velikih jezičnih modela za tekst-u-tekst, pa tako možete primijeniti najnovije generativne AI modele na uređaju u svojim Android aplikacijama.
Google AI Edge Torch je Python biblioteka koja podržava konverziju PyTorch modela u .tflite format, koji se potom može pokretati s TensorFlow Lite i MediaPipe. To omogućuje aplikacijama za Android, iOS i IoT da modele pokreću potpuno na uređaju. AI Edge Torch nudi široku podršku za CPU, s početnom podrškom za GPU i NPU. AI Edge Torch nastoji se usko integrirati s PyTorch-om, nadograđujući se na torch.export() i pružajući dobru pokrivenost Core ATen operatora.
-
Ovaj primjer je za Android 14+
-
Instalirajte Python 3.10.12
Preporuka: koristite conda za instalaciju Python okruženja
- Ubuntu 20.04 / 22.04 (molimo fokusirajte se na google ai-edge-torch)
Preporuka: koristite Azure Linux VM ili VM treće strane u oblaku za kreiranje okruženja
- Otvorite Linux bash i instalirajte Python biblioteku
git clone https://github.com/google-ai-edge/ai-edge-torch.git
cd ai-edge-torch
pip install -r requirements.txt -U
pip install tensorflow-cpu -U
pip install -e .
- Preuzmite Microsoft-3.5-Instruct s Hugging face
git lfs install
git clone https://huggingface.co/microsoft/Phi-3.5-mini-instruct
- Konvertirajte Microsoft Phi-3.5 u tflite
python ai-edge-torch/ai_edge_torch/generative/examples/phi/convert_phi3_to_tflite.py --checkpoint_path Your Microsoft Phi-3.5-mini-instruct path --tflite_path Your Microsoft Phi-3.5-mini-instruct tflite path --prefill_seq_len 1024 --kv_cache_max_len 1280 --quantize True
prvo instalirajte mediapipe
pip install mediapipe
pokrenite ovaj kod u vašem notebooku
import mediapipe as mp
from mediapipe.tasks.python.genai import bundler
config = bundler.BundleConfig(
tflite_model='Your Phi-3.5 tflite model path',
tokenizer_model='Your Phi-3.5 tokenizer model path',
start_token='start_token',
stop_tokens=[STOP_TOKENS],
output_filename='Your Phi-3.5 task model path',
enable_bytes_to_unicode_mapping=True or Flase,
)
bundler.create_bundle(config)adb shell rm -r /data/local/tmp/llm/ # Remove any previously loaded models
adb shell mkdir -p /data/local/tmp/llm/
adb push 'Your Phi-3.5 task model path' /data/local/tmp/llm/phi3.task
Odricanje od odgovornosti:
Ovaj dokument je preveden korištenjem AI usluge za prevođenje Co-op Translator. Iako težimo točnosti, imajte na umu da automatski prijevodi mogu sadržavati pogreške ili netočnosti. Izvorni dokument na izvornom jeziku treba smatrati autoritativnim izvorom. Za kritične informacije preporučuje se profesionalni ljudski prijevod. Ne snosimo odgovornost za bilo kakva nesporazuma ili pogrešna tumačenja koja proizlaze iz korištenja ovog prijevoda.
