
Kung interesado kang mag-set up ng sarili mong AI sa bahay o sa iyong mga server nang hindi umaasa sa kahit sino, Ang LocalAI ay naging isa sa mga pangunahing sanggunian sa open source ecosystem.Hindi lang ito basta isa pang proyekto: ito ay Isang buong pamilya ng mga kagamitang idinisenyo upang magsilbing direktang kapalit para sa OpenAI API at iba pang mga komersyal na platapormangunit tumatakbo nang lokal, na may ganap na kontrol sa iyong data at walang kinakailangang GPU.
Malayo sa pagiging isang modelong server lamang, ang LocalAI ay umunlad na tungo sa isang Kumpletong plataporma ng ahente, semantikong memorya, multimodal na henerasyon, at ipinamahaging pag-deployAng lahat ng ito ay may modular na arkitektura na umaangkop sa parehong napakasimpleng hardware at mga advanced na imprastraktura na may mga GPU, Jetson o mga distributed cluster.
Ano ang LocalAI at bakit ito madalas na pinag-uusapan?
Ang LocalAI ay isang open-source na proyekto sa ilalim ng lisensya ng MIT na gumaganap bilang Ang REST API ay tugma sa ispesipikasyon ng OpenAI (at mga katulad na serbisyo tulad ng Anthropic o Elevenlabs)Ngunit ito ay ganap na tumatakbo sa iyong sariling makina o on-premises na imprastraktura. Ito ay pinapanatili ng Ettore Di Giacinto at isang napaka-aktibong komunidad, at nakakuha na ito ng sampu-sampung libong bituin sa GitHub, na sumasalamin sa napakalaking interes sa mga solusyon sa AI na walang cloud.
Ang pangunahing ideya ay kaya mo Gamitin ang iyong mga kliyente, SDK, at mga tool na idinisenyo para sa OpenAI API nang hindi kinakailangang baguhin ang codeIturo lang ang mga endpoint sa iyong LocalAI instance. Mula doon, maaari ka nang magpatakbo ng mga LLM, bumuo ng mga imahe at audio, gumamit ng TTS, magsagawa ng semantic search, pagtukoy ng object, at higit pa, lahat nang lokal, nang hindi nagpapadala ng anumang data sa labas.
Isa sa mga pinaka-kapansin-pansin na bentahe ay iyon Hindi mo naman talaga kailangan ng GPUMaraming modelo ang maaaring tumakbo sa CPU lamang, na nagbubukas ng pinto para mai-mount ito sa isang NAS, isang NUC, isang lumang server, o anumang makina na may kaunting resources, inaayos ang laki at quantization ng mga modelo ayon sa iyong mga limitasyon sa hardware.
Ang pamilya ng Local Stack: LocalAI, LocalAGI at LocalRecall
Habang lumalago ang proyekto, ito ay naging isang "pamilya" ng magkakaugnay na mga kagamitan na sumasaklaw sa higit pa sa simpleng paghihinuha ng modeloSa kasalukuyan, ang tinatawag na "Local Stack" ay pangunahing binubuo ng tatlong pangunahing bahagi na maaaring magtulungan o magkahiwalay.
Sa isang banda, ang LocalAI ay nananatiling sentral na haligi bilang isang OpenAI-compatible na API para sa teksto, mga imahe, audio, at iba pang mga modalidadPinangangasiwaan nito ang komunikasyon sa iba't ibang inference backend (llama.cpp, vLLM, transformers, diffusers, atbp.) at naglalantad ng isang karaniwang interface na sumusuporta sa chat, mga pagkumpleto, pagbuo ng imahe, TTS, mga embedding, muling pagraranggo, at maging sa mga eksperimental na endpoint tulad ng text-to-video.
Sa tabi niya ay lilitaw ang LocalAGI, na gumaganap bilang Plataporma ng pamamahala ng ahente ng AI na may advanced na suporta para sa mga tool at daloy ng trabaho ng ahenteGumagana ito bilang isang pinahusay na kapalit para sa Responses API ng OpenAI, na nagbibigay-daan sa iyong tukuyin ang mga ahente na maaaring mangatwiran, magplano ng mga hakbang, gumamit ng mga panlabas na tool, at mag-coordinate ng mga kumplikadong gawain nang awtomatiko, ngunit palaging tumatakbo nang lokal.
Ang ikatlong elemento ay ang LocalRecall, na dinisenyo bilang REST API at sistema ng pamamahala ng kaalaman na may persistent memory para sa mga ahenteKaraniwan, nagbibigay ito ng semantic storage layer, vector DB, at pangmatagalang pamamahala ng konteksto, upang matandaan ng mga ahente at modelo ang impormasyon, mga dokumento, at mga estado ng pag-uusap sa paglipas ng panahon nang hindi kinakailangang umasa sa mga panlabas na serbisyo.
Mga pangunahing kakayahan: higit pa sa isang simpleng lokal na LLM
Isa sa mga dahilan kung bakit nakakuha ng malaking impluwensya ang LocalAI ay dahil Hindi ito limitado sa paglilingkod sa malalaking modelo ng wikaSakop ng proyekto ang napakalawak na hanay ng mga kakayahan ng AI, na ginagawa itong isang uri ng "generic infrastructure" para sa mga self-hosted na intelligent application.
Sa larangan ng wika, pinapayagan ng LocalAI magpatakbo ng mga LLM na tugma sa maraming pamilya ng modelo (Llama, Gemma, Qwen, Phi, Mistral, SmollVLM at iba pa), na may suporta para sa mga modelo sa format na GGUF sa pamamagitan ng llama.cpp, o sa pamamagitan ng mga backend tulad ng mga transformer o vLLM, depende sa magagamit na hardware at mga pangangailangan sa pagganap.
Sa usapin ng multimodal na pananaw at henerasyon, nag-aalok ang LocalAI suporta para sa mga modelo ng diffusion, pag-edit ng imahe, mga modelo ng wika ng paningin at pagtuklas ng bagay sa totoong orasKabilang dito ang integrasyon sa mga proyektong tulad ng stable-diffusion.cpp, HuggingFace diffusers, mga modelong tulad ng FLUX, WAN o Qwen 3 VL, at isang nakalaang API para sa pagtukoy ng bagay na sinusuportahan ng rf-detr, na maaaring tumakbo nang napakahusay kahit na sa CPU.
Ang audio ay isa pang magandang punto: Nagsasama ang LocalAI mga backend ng real-time na boses, text-to-speech, at pagkilala sa pagsasalita na may cloningNatagpuan namin ang lahat mula sa whisper.cpp at faster-whisper para sa transkripsyon, hanggang sa mga TTS engine tulad ng Bark, Bark-cpp, Coqui, Kokoro, KittenTTS, Piper, Chatterbox, neutts o Vibevoice, pati na rin ang mga modelo ng voice activity detection (VAD) tulad ng silero-vad para makontrol kung kailan magsasalita o puputulin ang mga katahimikan.
Arkitekturang modular: magaan na binary at on-demand na mga backend
Isa sa mga pangunahing rebolusyon kamakailan sa proyekto ay ang paglipat sa isang ganap na modular na arkitektura kung saan ang pangunahing binary ng LocalAI ay nakahiwalay mula sa mga backendDati, ang mga "all-in-one" na imahe ay malalaki at naglalaman ng lahat ng posibleng mga engine bilang pamantayan, na nagpapakomplikado sa mga magaan na pag-deploy at pag-upgrade.
Gamit ang bagong pilosopiyang ito, ang batayang imahe ng Docker at ang binary ng LocalAI ay mas maliit at i-download lamang ang mga kinakailangang backend kung kinakailanganKapag nag-install ka ng modelo mula sa gallery o sa pamamagitan ng mga YAML file, awtomatikong tinutukoy ng LocalAI ang iyong hardware (CPU, NVIDIA, AMD o Intel GPU) at dina-download ang naaangkop na variant ng backend na kailangan ng modelo.
Bukod pa rito, salamat sa disenyong ito, ngayon Maaari mong pamahalaan ang mga backend nang nakapag-iisa mula sa isang nakalaang gallery, kahit na gamit ang mga bersyon ng pag-develop.Nangangahulugan ito na hindi mo na kailangang maghintay para sa isang bagong release ng LocalAI para subukan ang pinakabagong llama.cpp, whisper.cpp, o diffusers backend: i-update lang ang component na iyon at gagamitin ito ng system nang walang kahirap-hirap.
Ang isa pang praktikal na detalye na lubos na pinahahalagahan ng mga nagtatrabaho sa mga liblib na kapaligiran o may mga partikular na pangangailangan ay ang kakayahang mag-load ng mga custom na backend sa pamamagitan lamang ng pagkopya ng mga binary sa isang itinalagang folderNang hindi nire-recompile ang mga buong container, maaari mong subukan ang mga na-optimize na build, variant para sa mga partikular na arkitektura, o mga patched na build ng mga backend nang hindi naaapektuhan ang buong sistema.
Pagkakatugma sa maraming AI backend
Pinagsasama ng LocalAI ang isang tunay na malawak na listahan ng mga backend upang masakop ang iba't ibang uri ng mga modelo at mga kaso ng paggamit, kasama ang suporta sa acceleration na iniayon sa bawat hardwareAng puso ng mga LLM ay karaniwang umiikot sa llama.cpp, vLLM at mga transformer, ngunit marami pang iba.
Sa pangkalahatang seksyon ng mga LLM, ang llama.cpp ay nagbibigay ng Mahusay na paghihinuha sa C/C++ na may suporta para sa CUDA, ROCm, Intel SYCL, Vulkan, Metal, at purong CPUnagpapahintulot sa mga quantized na modelo na tumakbo sa mga makinang walang GPU. Nagdadala ang vLLM ng PagedAttention at mga throughput-oriented na pag-optimize, na may acceleration para sa CUDA at ROCm, habang binubuksan ng mga transformer ang pinto sa malawak na koleksyon ng mga modelo ng HuggingFace sa CUDA, ROCm, Intel, at CPU.
Para sa audio, ang mga backend tulad ng whisper.cpp at faster-whisper ay pinagsama upang Mabilis at madaling dalhing pagkilala sa pagsasalita sa CPU o GPU, at malawak na hanay ng mga TTS engine: Bark at Bark-cpp, Coqui, Kokoro, Kitten-TTS, Piper, Chatterbox, neutts at Vibevoice, bawat isa ay may kanya-kanyang balanse ng kalidad, latency at mga kinakailangan sa hardware, mula sa purong CPU hanggang CUDA, ROCm, Metal o Intel.
Sa usapin ng pananaw at pagpapalaganap, sinusuportahan ng proyekto stablediffusion.cpp bilang isang implementasyon ng C/C++ ng Stable Diffusionpati na rin ang diffusers library ng HuggingFace para sa mga mas bagong modelo ng pagbuo at pag-eedit ng imahe. Depende sa backend, maaaring gamitin ang CUDA, ROCm, Intel SYCL, Metal, o simpleng CPU.
Higit pa sa mga LLM, audio, at mga imahe, isinasama na rin ang LocalAI Mga partikular na backend tulad ng rfdetr para sa pagtuklas ng object, mga document reranking engine, at isang local-store vector storeBukod pa rito, isinasama nito ang HuggingFace API upang pagsamahin ang lokal at malayuang paghihinuha kung kinakailangan. Ginagawa nitong lubos na komprehensibo ang plataporma para sa pagbuo ng mga augmented search system, mga document navigation assistant, o mga lokal na MLOps pipeline.
Pagbilis: Mula sa CPU-optimized hanggang sa GPU, Metal, at Jetson
Para matiyak na walang maiiwan, nag-aalok ang LocalAI ng isang patong ng Lubos na nababaluktot na acceleration, na may mga configuration para sa halos anumang uri ng modernong hardwareKung mayroon kang NVIDIA GPU, maaari mong samantalahin ang CUDA 12 o 13 sa karamihan ng mga compatible na backend, mula sa llama.cpp hanggang sa mga diffusers o coqui, inaayos ang bilang ng mga layer ng GPU o ang load ayon sa iyong mga resources.
Sa kaso ng mga AMD graphics card, umaasa ang LocalAI sa ROCm para Pabilisin ang mga pangunahing backend tulad ng llama.cpp, whisper, vLLM, transformers, diffusers, rerankers, at iba't ibang TTSIto ay lubhang kawili-wili para sa mga nagse-set up ng mga homelab gamit ang mga Radeon card. Para sa hardware ng Intel, ang suporta ay nagmumula sa pamamagitan ng oneAPI at iba pang mga teknolohiya, na nagde-deploy ng acceleration sa mga backend tulad ng llama.cpp, whisper, stablediffusion, vLLM, diffusers, rfdetr, rerankers, at mga voice engine tulad ng Coqui o Bark.
Kung gumagamit ka ng Mac, ang platform ay maisasama sa Metal at mga katutubong MLX at MLX-VLM backend ng Apple, na nag-aalok ng Na-optimize na hinuha sa mga chip na M1, M2, at M3+ kapwa para sa mga LLM at para sa mga multimodal na modelo, bilang karagdagan sa suporta sa bark-cpp at iba pang mga bahaging tugma sa Metal.
Hindi rin nila nakalimutan ang tungkol sa mga naka-embed na senaryo: mayroong partikular na suporta para sa mga ito. NVIDIA Jetson na may CUDA 12 at 13Nagbibigay-daan ito sa pagpapatakbo ng llama.cpp, whisper, stablediffusion, diffusers, at rfdetr sa mga ARM64 device tulad ng AGX Orin o mga edge computing platform, na lubhang kapaki-pakinabang para sa robotics, seguridad, o mga smart IoT project.
At, siyempre, lahat ng ito ay kinukumpleto ng Mga executable na na-optimize para sa CPU, na may suporta para sa mga set ng instruksyon tulad ng AVX, AVX2, at AVX512Bukod pa sa mga variant ng backend tulad ng whisper.cpp, partikular na na-compile ayon sa kakayahan ng processor, na iniiwasan ang mga error sa "ilegal na pagtuturo" sa mga luma o mababang-lakas na makina.
Pag-install: mga binary, script, Docker at AIO
Sa praktikal na antas, nagsikap nang husto ang pangkat ng LocalAI upang matiyak na Ang pagsisimula at pagpapatakbo nito ay hindi dapat maging isang odysseyMayroong ilang mga paraan ng pag-install depende sa kapaligiran at antas ng karanasan, para sa parehong mabilisang pagsubok at mas seryosong pag-deploy.
Sa isang banda, maaari kang magsimula sa isang script ng installer na nagda-download ng naaangkop na binary at nagko-configure ng mga pangunahing kaalamanMayroon ding mga direktang binary para sa iba't ibang desktop platform, bagama't sa macOS, halimbawa, ang mga DMG ay hindi nilagdaan ng Apple, na maaaring maging sanhi ng pagmamarka ng system sa mga ito bilang "naka-quarantine" at mangailangan ng kaunting paglihis upang mabuksan ang mga ito (pinapanatili ng team ang mga follow-up na isyu na may mga solusyon at posibleng mga pagpapabuti).
Isa pang karaniwang paraan ay ang paggamit ng Docker upang i-deploy ang LocalAI bilang standalone container, para man sa mga imahe ng CPU, GPU o AIO na may mga paunang na-download na modeloMaaari kang pumili ng mga imaheng CPU-only, pinagsamang mga imaheng CPU+GPU, o mga imaheng All-In-One na may kasamang paunang hanay ng mga modelong handa nang gamitin, bagama't ang huli ay kumukuha ng mas maraming espasyo at binalaan na sa hinaharap ang ilang "karagdagang" variant ay maaaring hindi na gamitin pabor sa bagong sistema ng pamamahala ng backend.
Kapag nagtatrabaho gamit ang Docker, mahalagang malaman ang pagkakaiba sa pagitan ng docker run, na lumilikha at nagsisimula ng isang bagong lalagyanAt ang `docker start`, na simpleng nagsisimula ng isang umiiral na. Kung nailunsad mo na ang LocalAI at gusto mo itong i-restart, ang tamang paraan ay gumamit ng tulad ng `docker start -i local-ai` upang maiwasan ang pagdoble ng mga container o paglikha ng mga conflict sa mga rehistradong pangalan.
Paglo-load ng modelo at awtomatikong pagtukoy ng backend
Kapag na-activate mo na ang LocalAI, ang susunod na hakbang ay I-load ang mga modelong gagamitin mo, mula man sa opisyal na gallery o gamit ang mga YAML configuration file.Ito ang yugto kung saan pumapasok ang lohika ng awtomatikong pagtukoy ng hardware at backend.
Kapag pumili ka ng modelo sa WebUI o nagtakda ng isa sa YAML, ang LocalAI Suriin ang mga kakayahan ng iyong makina (uri ng GPU, maging ito man ay NVIDIA, AMD, o Intel, suporta sa CPU, atbp.) at i-download ang naaangkop na backend. para sa kombinasyon ng modelo at device na iyon. Sa ganitong paraan, maiiwasan mo ang manu-manong pag-alam kung aling llama.cpp, diffusers, o whisper.cpp binary ang kailangan mo para sa iyong partikular na kapaligiran.
Kung kailangan mo ng higit na kontrol, ang configuration ng YAML ay nagbibigay-daan sa iyo Ayusin ang mga parameter tulad ng laki ng konteksto, bilang ng mga layer ng GPU, paggamit ng mmap, mga quantization, o ang kahulugan ng mga tool ng ahenteAt, salamat sa pagbabago ng WebUI, posible na ngayong i-edit ang lahat ng YAML nang direkta mula sa graphical interface nang hindi kinakailangang mag-SSH sa server o manu-manong mag-edit ng mga file.
Muling dinisenyong WebUI: Pamamahala sa biswal ng mga modelo, chat, at mga ahente sa LocalAI
Ang web interface ay sumailalim sa isang malaking pagbabago sa disenyo na nakatuon sa mga bihasang gumagamit habang nananatiling naa-access sa mga nais lamang mag-explore nang biswal. Ang paglipat mula sa HTML patungo sa isang kumbinasyon ng Malaki ang naitulong ng Alpine.js at native JavaScript sa pagpapabilis at pagiging mabisa nito. mula sa karanasan, lalo na sa mga kapaligirang may maraming konpigurasyon o modelo.
Mula sa WebUI na ito, maaari mong ma-access ang mga interface ng chat, pagbuo ng imahe, audio, pamamahala ng modelo, at panloob na pagsasaayosMayroong listahan ng mga modelo na may malabong paghahanap, para kahit magkamali ka sa pagta-type (halimbawa, "gema" sa halip na "gemma"), ipapakita sa iyo ng system ang mga tamang resulta nang hindi ka nababaliw sa pagsisikap na pinuhin ang eksaktong termino.
Isa sa mga pinaka-praktikal na punto ay ang WebUI ay nagbibigay-daan sa Tingnan at i-edit ang kumpletong configuration ng YAML para sa bawat modelo Mula sa browser, nang hindi umaalis sa application. Doon mo mababago ang maximum context, paganahin o huwag paganahin ang multimodal support, isaayos ang mga parameter ng performance, o tukuyin ang mga tool at MCP server para sa mga ahente, lahat ay may agarang epekto kapag na-save mo na ang mga pagbabago.
Mga Ahente at Suporta ng MCP: AI na gumagamit ng mga tool nang lokal
Sa mga kamakailang bersyon nito, ang LocalAI ay gumawa ng isang makabuluhang hakbang sa pamamagitan ng pagsasama ng Buong suporta para sa Protocol Context Model (PCM) at mga advanced na kakayahan sa ahenteNagbibigay-daan ito sa pagbuo ng mga ahente na hindi lamang sumasagot sa mga tanong, kundi maaari ring gumamit ng mga panlabas na tool, magplano ng mga hakbang, at mag-oorganisa ng mga kumplikadong gawain.
Ang integrasyon ng MCP ay batay sa balangkas na binuo mula sa LocalAGI at mga kaugnay na proyekto tulad ng Cogito, na nagreresulta sa isang simpleng paraan upang Tukuyin ang "mga MCP server" bilang mga lalagyan o panlabas na serbisyo na naglalantad ng mga toolHalimbawa, maaari kang magkaroon ng isang MCP server na nagsasagawa ng mga paghahanap sa DuckDuckGo, isa pa na nagtatanong sa mga internal API ng iyong kumpanya, o isa na nagpapatakbo ng mga script sa iyong lokal na makina.
Mula sa pananaw ng developer, sapat na ang I-configure ang mga MCP server na ito sa YAML ng modelo, nang hindi kinakailangang magsulat ng Python code o gumamit ng mga partikular na libraryKapag na-configure na, maaari mong gamitin ang /mcp/v1/chat/completions endpoint, na tugma sa OpenAI API, o direktang i-activate ang "MCP Agent Mode" mula sa chat WebUI upang simulan ng modelo ang paggamit ng mga tool kapag sa tingin nito ay kinakailangan.
Naglaan din ng pagsisikap ang koponan sa Pagbutihin ang katatagan ng mga function call at ang paghawak ng mga JSON schemaItinatama nito ang mga error at panik na maaaring mangyari kapag ang mga modelo ay nakabuo ng mga di-perpektong kahulugan ng tool. Sa pamamagitan ng mga pagpapabuting ito, ang paggamit ng tool at ang daloy ng trabaho ng ahente ay mas matatag sa produksyon.
Roadmap ng LocalAI at patuloy na ebolusyon ng proyekto
Napakabilis kumilos ng LocalAI, na may pampublikong roadmap sa anyo ng mga naka-tag na isyu kung saan masusubaybayan mo ang mga pinakabagong update at ang mga nakaplano para sa mga darating na buwan. Ipinapakita ng roadmap ang patuloy na pagkakasunod-sunod ng mga pagpapabuti na sumasaklaw sa parehong mga bagong kakayahan at mga panloob na pagpipino.
Sa mga nakaraang taon, ang mga sumusunod ay idinagdag Mga tampok tulad ng distributed inference, federated mode, P2P para sa pagpapatakbo ng mga LLM sa isang network, mga dashboard para sa pamamahala ng mga instance swarm, at suporta para sa mga bagong modelo at backend. (Flux, MLX-Audio, WAN, SANA, Bark.cpp, stablediffusion.cpp, atbp.), pati na rin ang isang Reranker API at isang pinagsamang object discovery API.
Nagkaroon din ng mga milestone, tulad ng Paglipat ng lahat ng backend palabas ng pangunahing binary upang mabawasan ang bigatAng pagdating ng isang bagong launcher para sa macOS at Linux, ang patuloy na pagpapabuti ng WebUI, at ang pagdaragdag ng mga experimental API tulad ng text-to-video sa pamamagitan ng /v1/videos, na kumokonekta sa mga lokal na AI tool tulad ng local video editing, ay pawang bahagi ng roadmap. Kasama sa mga plano sa hinaharap ang mas dynamic na pamamahala ng memorya, pinahusay na suporta sa multi-GPU, mga bagong agentic integration, at isang pinalawak na MCP tool ecosystem.
Mga halimbawa ng paggamit sa komunidad at mobile app na Local AI Chatbot
Ang diwa ng LocalAI ay malapit na nakaugnay sa komunidad, gaya ng makikita sa mga post mismo ng lumikha sa mga forum tulad ng r/selfhosted o/LocalLLaMASa forum na ito direktang ibinabahagi ang ebolusyon ng arkitektura at sinasagot ang mga tanong ng mga gumagamit. Maraming komento ang umiikot sa kung paano i-integrate ang LocalAI bilang isang pribadong "utak" para sa mga automation at personal na proyekto.
Isa sa mga kaso na nagpapakita ng "all local" na pamamaraan ay ang paglitaw ng Mga mobile application tulad ng Local AI Chatbot mula sa Software Tailor, na nag-aalok ng pakikipag-chat sa mga advanced na modelo nang direkta sa device nang walang koneksyon sa internetBinibigyang-daan ka ng app na ito na makipag-usap sa mga modelo tulad ng DeepSeek R1, Qwen, Mistral, Llama 3 o Phi nang ganap na offline, pinapanatili ang 100% privacy at sinasamantala ang hardware ng telepono.
Kabilang sa mga tampok nito ay ang Suporta para sa maraming modelo na may mabilis na paglipat sa pagitan ng mga ito, isang disenyo na nakatuon sa mahusay na pagkonsumo ng mapagkukunan, at isang malinis na interface para sa walang abala na pakikipag-chat.Ito ay para sa mga gumagamit na may malasakit sa privacy, mga propesyonal na humahawak ng sensitibong impormasyon, mga taong nasa mga lugar na mahina ang koneksyon, at mga mahilig sa AI na interesado sa pag-eksperimento sa mga lokal na modelo.
Ang mga ganitong uri ng solusyon ay nagpapakita kung paano ang ecosystem sa paligid ng LocalAI at lokal na AI ay lumalampas sa pangunahing server, pagdadala ng pilosopiyang "lahat ng nasa iyong device" sa mga mobile, desktop, at iba pang mga format, na may layuning masiyahan ang sinuman sa mga advanced na assistant nang hindi umaasa sa mga remote na serbisyo.
Ipinapakita ng proyektong LocalAI at ng pamilya nito ng mga kagamitan kung paano ito magagawa Upang bumuo ng isang kumpletong hanay ng pribado, extensible, modular, at multimodal na AI, na may kakayahang masakop ang lahat mula sa simpleng chat hanggang sa mga kumplikadong ahente gamit ang memorya at mga tool, nang hindi isinusuko ang kalayaan ng libreng software o ganap na kontrol sa data., na nagpoposisyon sa sarili bilang isang napakaseryosong alternatibo para sa mga ayaw na ang artificial intelligence ng kanilang mga proyekto ay umasa sa mga ikatlong partido.
