Menyelesaikan Masalah Inferensi untuk Proyek AI Open Source dengan GitHub Models

GitHub inference API
How using GitHub’s free inference API can make your AI-powered open source software more accessible.

source: Solving the inference problem for open source AI projects with GitHub Models - The GitHub Blog

Fitur AI dapat membuat proyek open source bersinar. Setidaknya, sampai pengaturan meminta kunci API inferensi berbayar. Mengharuskan kontributor atau bahkan pengguna biasa untuk menyediakan kunci large language model (LLM) mereka sendiri akan menghentikan adopsi:

$ my-cool-ai-tool
Error: OPENAI_API_KEY not found

Developer mungkin tidak ingin membeli paket berbayar hanya untuk mencoba tool Anda, dan hosting model sendiri bisa terlalu berat untuk laptop atau runner GitHub Actions.

GitHub Models menyelesaikan hambatan tersebut dengan API inferensi gratis yang kompatibel dengan OpenAI yang dapat digunakan setiap akun GitHub tanpa memerlukan kunci, konsol, atau SDK baru. Dalam artikel ini, kami akan menunjukkan cara mengintegrasikannya ke proyek Anda, menjalankannya di CI/CD, dan melakukan scaling ketika komunitas Anda berkembang.

Mari kita mulai.

Biaya Tersembunyi dari "Tambahkan AI Saja"

Fitur AI terasa ada di mana-mana hari ini, tapi menjalankannya secara lokal masih menjadi tantangan karena beberapa alasan:

  • API Berbayar: Cara termudah adalah meminta pengguna untuk kunci OpenAI atau Anthropic. Itu bukan pilihan untuk banyak hobbyist dan mahasiswa karena API berbayar terlalu mahal.
  • Model Lokal: Menjalankan LLM 2 miliar parameter bisa bekerja untuk tugas ringan, tapi apapun yang memerlukan lebih banyak kecerdasan akan dengan cepat melampaui memori laptop biasa — apalagi container 14 GB yang mendukung runner GitHub Actions.
  • Docker Images dan Weights: Anda bisa menggabungkan model dengan aplikasi Anda, tapi mendistribusikan weights multi-gigabyte akan membesarkan ukuran instalasi dan memperlambat CI.

Setiap persyaratan tambahan menyaring pengguna dan kontributor potensial. Yang Anda butuhkan adalah endpoint inferensi yang:

  • Gratis untuk proyek publik
  • Kompatibel dengan SDK OpenAI yang ada
  • Tersedia di mana pun kode Anda berjalan, seperti laptop, server, atau runner Actions

Itulah yang disediakan GitHub Models.

GitHub Models dalam Ringkasan

  • Apa itu: Endpoint REST yang menggunakan spesifikasi chat/completions yang sudah Anda kenal.
  • Apa yang Anda dapatkan: Kumpulan model terpilih (GPT-4o, DeepSeek-R1, Llama 3, dan lainnya) yang di-host oleh GitHub.
  • Siapa yang bisa memanggilnya: Siapa pun dengan GitHub Personal Access Token (PAT), atau GITHUB_TOKEN bawaan repositori ketika Anda opt-in melalui permissions.
  • Berapa biayanya: Tier gratis untuk semua akun personal dan org OSS; tier berbayar terukur membuka throughput lebih tinggi dan context window lebih besar.

Karena API mencerminkan OpenAI, setiap klien yang menerima baseURL akan bekerja tanpa perubahan kode. Ini termasuk OpenAI-JS, OpenAI Python, LangChain, llamacpp, atau skrip curl Anda sendiri.

Cara Memulai dengan GitHub Models

Karena GitHub Models kompatibel dengan API chat/completions OpenAI, hampir setiap SDK inferensi dapat menggunakannya. Untuk memulai, Anda dapat menggunakan SDK OpenAI:

import OpenAI from "openai";

const openai = new OpenAI({
  baseURL: "https://models.github.ai/inference/chat/completions",
  apiKey: process.env.GITHUB_TOKEN // atau PAT apa pun dengan models:read
});

const res = await openai.chat.completions.create({
  model: "openai/gpt-4o",
  messages: [{ role: "user", content: "Hi!" }]
});

console.log(res.choices[0].message.content);

Jika Anda menulis software AI open source dengan GitHub Models sebagai penyedia inferensi, semua pengguna GitHub akan dapat menjalankannya hanya dengan menyediakan GitHub Personal Access Token (PAT).

Dan jika software Anda berjalan di GitHub Actions, pengguna Anda bahkan tidak perlu menyediakan PAT. Dengan meminta permission models: read dalam file workflow Anda, token GitHub bawaan akan memiliki permissions untuk membuat permintaan inferensi ke GitHub Models. Ini berarti Anda dapat membangun serangkaian Actions bertenaga AI yang dapat dibagikan dan diinstal dengan satu klik. Misalnya:

  • Bot code review atau triage PR
  • Workflow smart issue tagging
  • Generator laporan aktivitas repositori mingguan
  • Dan apa pun yang dapat dilakukan GitHub Action

Plus, menggunakan GitHub Models memudahkan pengguna Anda untuk mengatur inferensi AI. Dan itu memiliki efek positif lain: lebih mudah bagi kontributor Anda untuk mengatur inferensi AI juga. Ketika siapa pun dengan akun GitHub dapat menjalankan kode Anda end-to-end, Anda akan dapat mendapat kontribusi dari seluruh jangkauan pengguna GitHub, bukan hanya yang memiliki kunci OpenAI.

CI Zero-Configuration dengan GitHub Actions

Menerbitkan Action yang bergantung pada AI dulu mengharuskan pengguna menambahkan kunci API inferensi mereka sebagai secret GitHub Actions. Sekarang Anda dapat mengirimkan instalasi satu klik:

# .github/workflows/triage.yml
permissions:
  contents: read
  issues: write
  models: read # 👈 membuka GitHub Models untuk GITHUB_TOKEN

jobs:
  triage:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v4
      - name: Smart issue triage
        run: node scripts/triage.js

GITHUB_TOKEN runner membawa scope models:read, jadi Action Anda dapat memanggil model apa pun tanpa pengaturan tambahan. Ini sangat cocok untuk:

  • Ringkasan pull request otomatis
  • Deduplikasi dan tagging issue
  • Digest repositori mingguan
  • Apa pun yang dapat Anda skrip dalam Action

Scaling Ketika Proyek Anda Berkembang

API inferensi GitHub Models gratis untuk semua orang. Tapi jika Anda atau pengguna Anda ingin melakukan lebih banyak inferensi dari yang diizinkan batas tarif gratis, Anda dapat mengaktifkan inferensi berbayar dalam pengaturan Anda untuk context window yang jauh lebih besar dan requests-per-minute yang lebih tinggi.

Ketika komunitas Anda tumbuh, traffic juga akan meningkat. Jadi penting untuk mempertimbangkan hal berikut:

  • Requests per minute (RPM): Sementara tier gratis menawarkan batas default, tier berbayar menawarkan kelipatan yang lebih tinggi.
  • Context window: Tier gratis dibatasi pada batas model standar; berbayar memungkinkan 128k token pada model yang didukung.
  • Latency: Tier berbayar berjalan dalam deployment terpisah sendiri, jadi Anda tidak dalam antrian yang sama dengan pengguna tier gratis.

Untuk memulai, Anda dapat mengaktifkan penggunaan berbayar di Settings > Models untuk org atau enterprise Anda. Klien dan token yang ada akan tetap bekerja (tapi akan lebih cepat dan mendukung konteks yang lebih besar).

Kesimpulan

LLM sedang mengubah cara developer membangun dan mengirimkan software, tapi mengharuskan pengguna menyediakan kunci API berbayar mereka sendiri bisa menjadi penghalang masuk. Keajaiban hanya terjadi ketika npm install, cargo run, atau go test pertama langsung bekerja.

Jika Anda memelihara codebase open source bertenaga AI, Anda harus mempertimbangkan menambahkan GitHub Models sebagai penyedia inferensi default. Pengguna Anda sudah memiliki inferensi AI gratis melalui GitHub, jadi tidak ada kerugian yang berarti untuk membiarkan mereka menggunakannya dengan kode Anda. Ini berlipat ganda jika proyek Anda dapat berjalan di GitHub Actions. Kunci API terbaik adalah tidak ada kunci API!

Dengan membuat inferensi berkualitas tinggi sebagai default gratis untuk setiap developer di GitHub, GitHub Models menghilangkan penghalang terbesar untuk adopsi OSS AI. Dan itu membuka pintu untuk lebih banyak kontribusi, onboarding yang lebih cepat, dan pengguna yang lebih bahagia.

Ingin mencobanya? Lihat dokumentasi GitHub Models atau langsung ke referensi API dan mulai mengirimkan fitur AI yang langsung bekerja hari ini.


Ditulis oleh
Sean adalah software engineer di GitHub, bekerja pada GitHub Models.

Read more

Detail of the city Luik

Connected Place - 威權主義下的政治暴力,開放社群網路與 "Bluesky主義"

開放社交網路的狀態已經急遽改變。建立能夠超越大型科技平台的社交網路一直是個本質上帶有政治性的專案,但美國最近的發展為此增添了新的緊迫性。中間派評論家努力將 Bluesky 描繪成左翼空間。X 平台上的憤怒販子分享並放大關於 Bluesky 用戶慶祝 Kirk 之死的捏造敘事,而法西斯聲音越來越大聲地呼籲關閉並起訴所有民主和左翼空間,現在包括 Bluesky。如今,隨著美國國會要求審查制度並呼籲從應用商店下架 Bluesky,建立大科技替代方案的專案正與美國威權主義發生碰撞。

By Jiajun
蘇哈托政權垮台後印尼的反華暴力

蘇哈托政權垮台後印尼的反華暴力

原章節名稱:ANTI-CHINESE VIOLENCE IN INDONESIA AFTER SOEHARTO 作者:Charles A. Coppel 「反華暴力」這個概念已經成為印尼相關寫作中的陳腔濫調。任何關於反華暴力爆發的新聞報導都可能包含以下要素:對印尼華人數量的粗略估計;聲稱他們在財富上不成比例地富有;提及反華偏見和歧視(特別是在蘇哈托政權下);以及斷言反華暴力在印尼有著深厚的歷史根源。以這種方式陳述,這些命題似乎無可厚非。但這些要素經常被扭曲和誇大到如此程度,以至於影響了對所討論暴力事件的報導和理解。 早期反華暴力的扭曲與誇大 反華偏見和歧視在印尼確實存在,並且長期以來一直是反華暴力爆發的根本原因,這是不可否認的事實。然而,這個毋庸置疑的事實已經被扭曲成接近大屠殺規模的幻想。例如,維基百科上「印尼華人」條目(截至2007年6月22日)提到1965年「數百萬印尼華人的屠殺」以及「兩次種族滅絕暴動……在1965年和1998年」(Wikipedia 2007)。這種荒謬的說法呼應了傑克·皮澤(Jack Pizzey)1988年電影《泗水慢船》中的無稽之談,他在片中說1

By Jiajun