true po magaling po siya sa reasoning at consistent po siya triny kopo ipa summarize yung isang file ko na 16k tokens at pinagawa ng questions based sa file. ang galing niya po hindi repeated yung mga nireresponse niya. compared sa previous niya na model yung gemnini 1 and 1 pro sa studio mas powerful siya. mabilis din response niyaNasabi ko nga sa isang thread yan at parati akong pumipila sa waitlists ng mga premiium LLMs.. Pag accepted yung request mo sa waitlist, may 1M token ka to test Gemini Pro 1.5-128k compared sa standard na free Gemini Pro 1.0-32k . Pantapat nila yan sa GPT-4-128, pero merong gma iba silang models sa VertexAI na commercial din. Magandang gamitin yung free api nyan using the 128k LLM sa mismong AI studio para kumpleto ang features. Sulit ka na dyan.
Pero may mas malaking magbigay ng free tokens, yung Deepseek na 10M he he. Generally, ginagamti yan sa coding naman but at par sa GPT4 sa human evaluation for simple chatting. Magaling yan mag-edit/gumawa ng code basta tama yung prompts mo.
Mabilis nga siya sa tests ko, at siyempre kaya nyang mag-handle ng malalaking files to summarize. Pati mahahabang videos, kaya rin nyang i-summarize. Yan yung malaking advantage sa mga users na gustong magpabasa ng malalaki at maraming files, na di pa bihasang mag-split/truncate ng documents, mag-embed para magamit yung maliliit ang token limit like GPT-3.5-turbo-4k. Less stress dahil maasikasong gawin yon. Sa mga ρrémíùm sites kadalasan provided yung builtin feature na na yan like DocumentAI ng Google or you need to run an app locally from some open-source application using langchain.true po magaling po siya sa reasoning at consistent po siya triny kopo ipa summarize yung isang file ko na 16k tokens at pinagawa ng questions based sa file. ang galing niya po hindi repeated yung mga nireresponse niya. compared sa previous niya na model yung gemnini 1 and 1 pro sa studio mas powerful siya. mabilis din response niya
Dati, mag-apply ka sa waitlist, hindi ko alam ngayon. Matagal na kasi yan. Pag more than a month, marami na yung maaaring mangyari. Kung naka-logged in ka sa Google AI Studio, at active sa latest news, makikita mo yung request sa waitlist.Pano mag apply for beta test?
Meron po palanyung akin heheheDati, mag-apply ka sa waitlist, hindi ko alam ngayon. Matagal na kasi yan. Pag more than a month, marami na yung maaaring mangyari. Kung naka-logged in ka sa Google AI Studio, at active sa latest news, makikita mo yung request sa waitlist.
Thru search engine, may nakita akong link para pindutin mo na lang;
Yung 4 na accounts ko, lahat ay merong gp1.5pro kahit sa isa lang ako nag-request noon. Baka open na yan sa public.
open na yan for public unlock last time. though yung public version na dala sa subscription is only 1m lng na token unlike previously sa beta testing na 10m tokens.Meron po palanyung akin hehehe
Ahh okay poopen na yan for public unlock last time. though yung public version na dala sa subscription is only 1m lng na token unlike previously sa beta testing na 10m tokens.
Isang beses lang ako nag-request sa waitlist at ilang beses ko lang nagamit yang GP-1.5-pro. Mas abala ako sa testing ng AI UIs kaysa sa pag-test ng mga LLM models or plain chatbots he he. Yung UI features kasi ang importante para sa akin para ma-customize yung AI to function properly as well as automating the prompts, using external datasets, tuning the models, etc.open na yan for public unlock last time. though yung public version na dala sa subscription is only 1m lng na token unlike previously sa beta testing na 10m tokens.
Kaya mas effective yung ilalabas na sagot ni gemini pro using the addons na di kaya ng plain LLM lamang.Under the Hood
This system leverages the power of cutting-edge AI models to understand your PDFs and answer your questions:
- Chunking: LangChain splits your PDF into manageable sections for efficient processing.
- Embedding: Each section receives a unique representation using "GeminiEmbeddingFunction" for better understanding.
- Storage and Search: ChromaDB stores these embeddings, enabling rapid retrieval of relevant information.
- Query Expansion: "models/text-bison-001" expands your query to consider various ways it might be phrased.
- Cross-Encoder Re-ranking: "cross-encoder/ms-marco-MiniLM-L-6-v2" prioritizes the most relevant answers.
- Response Generation: "gemini-pro" synthesizes the information into a clear and concise response.
We use cookies and similar technologies for the following purposes:
Do you accept cookies and these technologies?
We use cookies and similar technologies for the following purposes:
Do you accept cookies and these technologies?