Android, iOS, web ve yerleşik cihazlarda geleneksel makine öğrenimi ve üretken yapay zeka için optimize edilmiş JAX, Keras, PyTorch ve TensorFlow modellerini yüksek performansla çalıştırın.
Dönüşüm ve kesirli sayılaştırma yoluyla modelinizin dönüşümünü görselleştirin. Karşılaştırma sonuçlarını yer paylaşımı yaparak hotspot'larda hata ayıklama
Karmaşık ML özellikleri için özel ardışık düzenler oluşturma
Önce ve sonra işleme mantığıyla birlikte birden fazla makine öğrenimi modelini performanslı bir şekilde zincirleyerek kendi görevinizi oluşturun. Hızlandırılmış (GPU ve NPU) ardışık düzenleri CPU'da engellemeden çalıştırın.
Google'ın uygulamalarını destekleyen araçlar ve çerçeveler
Düşük kodlu API'lerden donanıma özel hızlandırma kitaplıklarına kadar her düzeyde ürün içeren tam yapay zeka uç katmanını keşfedin.
MediaPipe Görevleri
Üretken yapay zeka, bilgisayar görüşü, metin ve ses gibi yaygın görevler için düşük kodlu API'leri kullanarak mobil ve web uygulamalarına yapay zeka özellikleri hızlıca ekleyin.
Üretken yapay zeka
Üretken dil ve resim modellerini, hazır API'ler ile doğrudan uygulamalarınıza entegre edin.
Görsel
Segmentasyon, sınıflandırma, algılama, tanıma ve vücut yer işaretlerini kapsayan çok çeşitli görüntüleme görevlerini keşfedin.
Metin ve ses
Metin ve sesi dil, duygu ve kendi özel kategorileriniz dahil olmak üzere birçok kategoriye göre sınıflandırın.
Genellikle ön ve son işleme ile birleştirilmiş birden fazla makine öğrenimi modeli içeren, yüksek performanslı hızlandırılmış makine öğrenimi ardışık düzenleri oluşturmak için kullanılan düşük düzey bir çerçeve.
Donanıma özel hızlandırmayı optimize ederek herhangi bir çerçevede yazılmış yapay zeka modellerini mobil cihazlar, web ve mikrodenetleyicilerde dağıtın.
Çok çerçeveli
JAX, Keras, PyTorch ve TensorFlow'daki modelleri uçta çalıştırılacak şekilde dönüştürün.
Platformlar arası
Yerel SDK'larla aynı modeli Android, iOS, web ve mikrodenetleyicilerde çalıştırın.
Hafif ve hızlı
LiteRT'nin verimli çalışma zamanı yalnızca birkaç megabayt yer kaplar ve CPU, GPU ve NPU'larda model hızlandırma sağlar.
Modellerinizi görsel olarak keşfedin, hata ayıklayın ve karşılaştırın. Sorunlu yoğun noktaları belirlemek için performans karşılaştırmalarını ve sayısal verileri yer paylaşımı olarak gösterin.
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],[],[],[],null,["Deploy AI across mobile, web, and embedded applications\n\n - \n\n On device\n\n Reduce latency. Work offline. Keep your data local \\& private.\n- \n - \n\n Cross-platform\n\n Run the same model across Android, iOS, web, and embedded.\n- \n - \n\n Multi-framework\n\n Compatible with JAX, Keras, PyTorch, and TensorFlow models.\n- \n - \n\n Full AI edge stack\n\n Flexible frameworks, turnkey solutions, hardware accelerators\n\nReady-made solutions and flexible frameworks \n\nLow-code APIs for common AI tasks\n\nCross-platform APIs to tackle common generative AI, vision, text, and audio tasks.\n[Get started with MediaPipe tasks](https://ai.google.dev/edge/mediapipe/solutions/guide) \n\nDeploy custom models cross-platform\n\nPerformantly run JAX, Keras, PyTorch, and TensorFlow models on Android, iOS, web, and embedded devices, optimized for traditional ML and generative AI.\n[Get started with LiteRT](https://ai.google.dev/edge/litert) \n\nShorten development cycles with visualization\n\nVisualize your model's transformation through conversion and quantization. Debug hotspots by\noverlaying benchmarks results.\n[Get started with Model Explorer](https://ai.google.dev/edge/model-explorer) \n\nBuild custom pipelines for complex ML features\n\nBuild your own task by performantly chaining multiple ML models along with pre and post processing\nlogic. Run accelerated (GPU \\& NPU) pipelines without blocking on the CPU.\n[Get started with MediaPipe Framework](https://ai.google.dev/edge/mediapipe/framework) \n\nThe tools and frameworks that power Google's apps \nExplore the full AI edge stack, with products at every level --- from low-code APIs down to hardware specific acceleration libraries. \n\nMediaPipe Tasks \nQuickly build AI features into mobile and web apps using low-code APIs for common tasks spanning generative AI, computer vision, text, and audio. \nGenerative AI\n\nIntegrate generative language and image models directly into your apps with ready-to-use APIs. \nVision\n\nExplore a large range of vision tasks spanning segmentation, classification, detection, recognition, and body landmarks. \nText \\& audio\n\nClassify text and audio across many categories including language, sentiment, and your own custom categories. \nGet started \n[Tasks documentation\nFind all of our ready-made low-code MediaPipe Tasks with documentation and code samples.](https://ai.google.dev/edge/mediapipe/solutions/guide) \n[Generative AI tasks\nRun LLMs and diffusion models on the edge with our MediaPipe generative AI tasks.](https://ai.google.dev/edge/mediapipe/solutions/genai/llm_inference) \n[Try demos\nExplore our library of MediaPipe Tasks and try them yourself.](https://goo.gle/mediapipe-studio) \n[Model maker documentation\nCustomize the models in our MediaPipe Tasks with your own data.](https://ai.google.dev/edge/mediapipe/solutions/model_maker) \n\nMediaPipe Framework \nA low level framework used to build high performance accelerated ML pipelines, often including multiple ML models combined with pre and post processing. \n[Get started](https://ai.google.dev/edge/mediapipe/framework) \n\nLiteRT \nDeploy AI models authored in any framework across mobile, web, and microcontrollers with optimized hardware specific acceleration. \nMulti-framework\n\nConvert models from JAX, Keras, PyTorch, and TensorFlow to run on the edge. \nCross-platform\n\nRun the same exact model on Android, iOS, web, and microcontrollers with native SDKs. \nLightweight \\& fast\n\nLiteRT's efficient runtime takes up only a few megabytes and enables model acceleration across CPU, GPU, and NPUs. \nGet started \n[Pick a model\nPick a new model, retrain an existing one, or bring your own.](https://ai.google.dev/edge/litert/models/trained) \n[Convert\nConvert your JAX, Keras, PyTorch, or Tensorflow model into an optimized LiteRT model.](https://ai.google.dev/edge/litert/models/convert_to_flatbuffer) \n[Deploy\nRun a LiteRT model on Android, iOS, web, and microcontrollers.](https://ai.google.dev/edge/litert#integrate-model) \n[Quantize\nCompress your model to reduce latency, size, and peak memory.](https://ai.google.dev/edge/litert/models/model_optimization) \n\nModel Explorer \nVisually explore, debug, and compare your models. Overlay performance benchmarks and numerics to pinpoint troublesome hotspots. \n[Get started](https://ai.google.dev/edge/model-explorer) \n\nGemini Nano in Android \\& Chrome \nBuild generative AI experiences using Google's most powerful, on-device model \n[Learn more about Android AICore](https://developer.android.com/ai/aicore) [Learn more about Chrome Built-In AI](https://developer.chrome.com/docs/ai) \n\nRecent videos and blog posts \n[A walkthrough for Android's on-device GenAI solutions\n1 October 2024](https://www.youtube.com/watch?v=EpKghZYqVW4) \n[How to bring your AI Model to Android devices\n2 October 2024](https://android-developers.googleblog.com/2024/10/bring-your-ai-model-to-android-devices.html) \n[Gemini Nano is now available on Android via experimental access\n1 October 2024](https://android-developers.googleblog.com/2024/10/gemini-nano-experimental-access-available-on-android.html) \n[TensorFlow Lite is now LiteRT\n4 September 2024](https://developers.googleblog.com/en/tensorflow-lite-is-now-litert)"]]