Google Cloud menawarkan berbagai produk dan alat untuk siklus proses lengkap dalam membangun aplikasi AI generatif.

Pelajari cara membuat aplikasi AI generatif

AI Generatif di Vertex AI

Akses model AI generatif berukuran besar dari Google sehingga Anda dapat menguji, menyesuaikan, dan men-deploy-nya untuk digunakan dalam aplikasi yang didukung teknologi AI.

Panduan Memulai Gemini

Lihat cara mengirim permintaan ke Gemini API melalui platform AI-ML Google Cloud, Vertex AI.

Memilih infrastruktur untuk aplikasi AI generatif Anda

Pilih produk dan alat terbaik untuk kasus penggunaan Anda dan akses dokumentasi yang diperlukan untuk memulai.

Kapan harus menggunakan AI generatif

Identifikasi apakah AI generatif, AI tradisional, atau kombinasi keduanya mungkin sesuai dengan kasus penggunaan bisnis Anda.

Mengembangkan aplikasi AI generatif

Pelajari cara mengatasi tantangan di setiap tahap pengembangan aplikasi AI generatif.

Contoh kode dan aplikasi contoh

Lihat contoh kode untuk kasus penggunaan populer dan deploy contoh aplikasi AI generatif yang aman, efisien, tangguh, berperforma tinggi, dan hemat biaya.

Eksplorasi dan hosting model

Google Cloud menyediakan serangkaian model dasar canggih melalui Vertex AI, termasuk Gemini. Anda juga dapat men-deploy model pihak ketiga ke Vertex AI Model Garden atau menghosting sendiri di GKE atau Compute Engine.

Model Google di Vertex AI (Gemini, Imagen)

Temukan, uji, sesuaikan, dan deploy model dan aset Google dari library model ML.

Model lain di Model Garden Vertex AI

Temukan, uji, sesuaikan, dan deploy model dan aset OSS tertentu dari library model ML.

Model pembuatan teks melalui HuggingFace

Pelajari cara men-deploy model pembuatan teks HuggingFace ke Vertex AI atau Google Kubernetes Engine (GKE).

Orkestrasi AI/ML di GKE

GKE secara efisien mengatur beban kerja AI/ML, mendukung GPU dan TPU untuk pelatihan dan penayangan AI generatif yang skalabel.

GPU di Compute Engine

Lampirkan GPU ke instance VM untuk mempercepat beban kerja AI generatif di Compute Engine.

Desain dan rekayasa perintah

Desain perintah adalah proses penulisan pasangan perintah dan respons untuk memberi model bahasa konteks dan petunjuk tambahan. Setelah menulis perintah, Anda akan memasukkannya ke model sebagai set data perintah untuk prapelatihan. Saat menayangkan prediksi, model akan merespons dengan petunjuk yang Anda buat.

Vertex AI Studio

Desain, uji, dan sesuaikan perintah yang dikirim ke model bahasa besar (LLM) Gemini dan PaLM 2 Google.

Ringkasan Strategi Perintah

Pelajari alur kerja rekayasa perintah dan strategi umum yang dapat Anda gunakan untuk memengaruhi respons model.
Lihat contoh perintah dan respons untuk kasus penggunaan tertentu.

Grounding dan RAG

Perujukan menghubungkan model AI ke sumber data untuk meningkatkan akurasi respons dan mengurangi halusinasi. RAG, teknik dasar umum, menelusuri informasi yang relevan dan menambahkannya ke perintah model, sehingga memastikan output didasarkan pada fakta dan informasi terbaru.

Pembumian Vertex AI

Anda dapat melandasi model Vertex AI dengan Google Penelusuran atau dengan data Anda sendiri yang disimpan di Vertex AI Search.
Gunakan Perujukan dengan Google Penelusuran untuk menghubungkan model ke pengetahuan terbaru yang tersedia di internet.

Embedding vektor di AlloyDB

Gunakan AlloyDB untuk membuat dan menyimpan penyematan vektor, lalu mengindeks dan membuat kueri penyematan menggunakan ekstensi pgvector.

Cloud SQL dan pgvector

Simpan penyematan vektor di Postgres SQL, lalu indeks dan buat kueri penyematan menggunakan ekstensi pgvector.

Mengintegrasikan data BigQuery ke dalam aplikasi LangChain Anda

Gunakan LangChain untuk mengekstrak data dari BigQuery serta memperkaya dan mendasarkan respons model Anda.

Embedding vektor di Firestore

Buat penyematan vektor dari data Firestore Anda, lalu buat indeks dan buat kueri penyematan.

Vector embedding di Memorystore (Redis)

Gunakan LangChain untuk mengekstrak data dari Memorystore serta memperkaya dan melandasi respons model Anda.

Agen dan panggilan fungsi

Agen memudahkan Anda mendesain dan mengintegrasikan antarmuka pengguna percakapan ke dalam aplikasi seluler, sedangkan panggilan fungsi memperluas kemampuan model.

Vertex AI Agent Builder

Manfaatkan model dasar, keahlian penelusuran, dan teknologi AI percakapan Google untuk aplikasi AI generatif tingkat perusahaan.

Pemanggilan Fungsi Vertex AI

Tambahkan panggilan fungsi ke model Anda untuk mengaktifkan tindakan seperti membuat reservasi berdasarkan informasi kalender yang diekstrak.

Penyesuaian dan pelatihan model

Tugas khusus, seperti melatih model bahasa pada terminologi tertentu, mungkin memerlukan lebih banyak pelatihan daripada yang dapat Anda lakukan dengan desain perintah atau dasar saja. Dalam skenario tersebut, Anda dapat menggunakan penyesuaian model untuk meningkatkan performa, atau melatih model Anda sendiri.

Mengevaluasi model di Vertex AI

Mengevaluasi performa model dasar dan model AI generatif yang telah disesuaikan di Vertex AI.

Menyesuaikan model Vertex AI

Model dasar tujuan umum dapat memanfaatkan penyesuaian untuk meningkatkan performanya pada tugas tertentu.

Cloud TPU

TPU adalah ASIC yang dikembangkan khusus dari Google dan digunakan untuk mempercepat workload machine learning, seperti melatih LLM.

Mulai membuat aplikasi

LangChain adalah framework open source untuk aplikasi AI generatif yang memungkinkan Anda membuat konteks ke dalam perintah, dan mengambil tindakan berdasarkan respons model.
Lihat contoh kode untuk kasus penggunaan populer dan deploy contoh aplikasi AI generatif yang aman, efisien, tangguh, berperforma tinggi, dan hemat biaya.