Generalized Linear Model

Engine Code by Anwar Hidayat – www.statistikian.com

1. Input Data (Grid View)

💡 Tips: Paste data dari Excel.
NoJumlah_KasusTerapiUsiaPopulasi
1
2
3
4
5

Dokumentasi Akademik ST-Engine: Generalized Linear Model (GLM)

Dikembangkan & Didesain Oleh:

ANWAR HIDAYAT

Founder dan CEO www.statistikian.com

Coding ini dibangun dan didevelop oleh Anwar Hidayat untuk menghadirkan komputasi model linear tergeneralisasi (GLM) berbasis WebAssembly (WASM). Arsitektur ini dirancang untuk mencapai konsistensi perhitungan tingkat tinggi yang paralel dengan perangkat lunak komersial seperti IBM SPSS dan STATA, menggunakan estimasi algoritma Iteratively Reweighted Least Squares (IRLS) secara riil tanpa manipulasi nilai deterministik, dan terintegrasi penuh dalam ekosistem WordPress.

Dokumentasi ini menguraikan spesifikasi, landasan teori, dan tata cara operasional untuk alat ukur analitik ST-Engine Generalized Linear Model (GLM). Secara konseptual, model regresi linear klasik bertumpu pada asumsi bahwa variabel dependen berdistribusi normal dan memiliki varians yang konstan. Dalam praktik empiris, data observasional sering kali bermanifestasi dalam bentuk data cacah (count data), data biner, atau data kontinyu yang sangat menceng (skewed), sehingga memerlukan perluasan kerangka model linear. Alat ini menyediakan fasilitas pemodelan regresi untuk berbagai keluarga distribusi eksponensial secara terintegrasi di dalam satu kerangka kerja komputasi.

1. Teori Dasar: Definisi, Tujuan, Fungsi, dan Formula Uji Utama

Generalized Linear Model (GLM) merupakan kerangka kerja statistik yang diformulasikan pertama kali oleh John Nelder dan Robert Wedderburn pada tahun 1972. GLM menyatukan berbagai metode regresi (seperti regresi linear, regresi logistik, regresi Poisson, dan regresi Gamma) ke dalam satu rumusan teoritis yang komprehensif. Tujuan dari GLM adalah untuk memodelkan hubungan antara variabel dependen (Y) dan variabel independen (X) ketika variabel dependen tersebut tidak memiliki distribusi normal, melainkan mengikuti salah satu distribusi dari keluarga eksponensial (exponential family of distributions).

Struktur teoretis GLM terdiri dari tiga komponen fundamental:

  1. Komponen Acak (Random Component): Menetapkan distribusi probabilitas dari variabel dependen $Y$. Distribusi ini dipilih berdasarkan karakteristik data, seperti distribusi Gaussian untuk data kontinyu normal, distribusi Binomial untuk data proporsi atau biner, distribusi Poisson dan Negative Binomial untuk data cacah tak berhingga, serta distribusi Gamma dan Inverse Gaussian untuk data kontinyu asimetris bernilai positif.
  2. Komponen Sistematis (Systematic Component): Merupakan kombinasi linear dari parameter-parameter model dan variabel independen. Komponen ini sering disebut sebagai prediktor linear, disimbolkan dengan $\eta$ (eta), di mana $\eta_i = \beta_0 + \beta_1 X_{i1} + \beta_2 X_{i2} + … + \beta_p X_{ip}$.
  3. Fungsi Tautan (Link Function): Merupakan fungsi monotonik dan dapat didiferensiasi yang memetakan nilai ekspektasi dari variabel dependen, $\mu = E(Y)$, ke prediktor linear $\eta$. Fungsi tautan ini, disimbolkan dengan $g(\cdot)$, menjembatani komponen acak dan komponen sistematis sedemikian rupa sehingga $g(\mu_i) = \eta_i$.

Fungsi utama GLM dalam analisis multivariat adalah memberikan fleksibilitas penyesuaian model terhadap varians observasi. Pada model OLS klasik, varians diasumsikan konstan dan independen dari rata-rata pengamatan (homoskedastisitas). Namun, pada keluarga GLM, varians model secara matematis diekspresikan sebagai fungsi dari rata-ratanya sendiri, $Var(Y) = \phi V(\mu)$, di mana $\phi$ adalah parameter dispersi dan $V(\mu)$ adalah fungsi varians. Pemodelan varians proporsional ini sangat sentral dalam menangani data heteroskedastik yang inheren pada data non-normal.

Proses perhitungan koefisien regresi dalam GLM tidak dapat diselesaikan melalui metode kuadrat terkecil biasa secara analitik langsung. Estimasi parameter dikerjakan melalui pendekatan Maximum Likelihood Estimation (MLE) menggunakan algoritma numerik Iteratively Reweighted Least Squares (IRLS). Algoritma ini memproses pembaruan matriks bobot diagonal dan matriks turunan pertama secara berulang-ulang dari skor awal hingga tercapai nilai log-likelihood yang konvergen pada kriteria toleransi minimum (biasanya pada ambang batas $10^{-8}$).

2. Formula Tiap Tahap Analisis dan Relevansinya

1. Persamaan Umum Prediktor Linear dan Fungsi Tautan

g(\mu_i) = \eta_i = \beta_0 + \sum_{j=1}^{p} \beta_j X_{ij}

Penjelasan Formula: Persamaan ini menunjukkan bahwa transformasi dari nilai ekspektasi observasi (rata-rata kondisional $Y_i$, yaitu $\mu_i$) dihubungkan secara linear dengan set variabel penjelas $X$ melalui fungsi tautan $g$. Pemilihan $g$ disesuaikan dengan asumsi ruang parameter $Y$. Sebagai contoh, fungsi tautan logaritma natural, $\ln(\mu_i)$, memastikan bahwa prediksi nilai $\mu_i$ selalu positif, yang mana sangat relevan bagi variabel independen berupa jumlah kejadian (cacah) yang tidak boleh memiliki nilai negatif.

“Spesifikasi fungsi tautan dalam model linear tergeneralisasi berfungsi memisahkan asumsi skala interaksi sistematis dari distribusi kesalahan observasional.” (McCullagh & Nelder, 1989)

2. Fungsi Massa Probabilitas Poisson & Binomial Negatif

P(Y=y) = \frac{e^{-\mu} \mu^y}{y!} \quad \text{dan} \quad Var(Y) = \mu + \alpha \mu^2

Penjelasan Formula: Regresi Poisson mengasumsikan bahwa rata-rata pengamatan sama secara persis dengan varians pengamatan ($E(Y) = Var(Y) = \mu$). Ini dikenal dengan istilah ekuidispersi. Dalam banyak kasus pengamatan nyata di biologi dan ilmu sosial, varians terukur seringkali jauh melebihi nilai rata-ratanya, suatu kondisi yang didefinisikan sebagai overdispersi. Model Binomial Negatif mengatasi persoalan tersebut dengan memperkenalkan parameter overdispersi $\alpha$. Formula varians di atas merepresentasikan struktur model Negative Binomial tipe 2 (NB2), yang mengakomodasi heterogenitas galat yang tidak dapat dijelaskan oleh model Poisson standar.

“Penggunaan parameter dispersi tambahan pada model Binomial Negatif memberikan penyesuaian yang esensial dalam mengakomodasi struktur heterogenitas varians tak teramati pada data diskrit.” (Hilbe, 2014)

3. Uji Kesesuaian Model: Skala Deviansi (Deviance GoF)

D = 2 \sum_{i=1}^{n} \left[ y_i \ln\left(\frac{y_i}{\hat{\mu}_i}\right) – (y_i – \hat{\mu}_i) \right]

Penjelasan Formula: Skala deviansi (Scaled Deviance) mengukur seberapa jauh perbedaan antara log-likelihood dari model jenuh (saturated model, yang memiliki satu parameter estimasi untuk setiap pengamatan data) dengan log-likelihood dari model regresi yang sedang diusulkan. Formulasi matematis di atas secara spesifik menggambarkan deviansi sisaan untuk keluarga distribusi Poisson. Rasio dari nilai deviansi ini terhadap derajat kebebasan (degrees of freedom), yaitu $D/df$, sering digunakan sebagai indikator goodness-of-fit dan diagnostik keberadaan overdispersi. Jika rasio deviansi secara substansial mendekati nilai 1, model diasumsikan telah mendeskripsikan data dengan memadai.

“Statistik deviasi menyediakan ukuran asimtotik yang komprehensif bagi selisih kelayakan informasi (information loss) antara fungsi estimasi konseptual dan distribusi empiris sampel absolut.” (Agresti, 2015)

4. Matriks Estimasi Parameter Newton-Raphson

\beta^{(m+1)} = \beta^{(m)} + (X^T W X)^{-1} X^T W (y – \mu) \frac{\partial \eta}{\partial \mu}

Penjelasan Formula: Estimasi parameter pada GLM menuntut proses iteratif yang rumit karena ketiadaan solusi bentuk tertutup (closed-form solution). Formula di atas merepresentasikan iterasi pembaruan dari algoritma Fisher Scoring atau Iteratively Reweighted Least Squares (IRLS). Nilai $\beta$ pada iterasi ke-$(m+1)$ disesuaikan dari iterasi sebelumnya $(m)$ menggunakan matriks desain $X$ dan matriks pembobot diagonal $W$. Konvergensi algoritma menandakan ditemukannya titik optimalisasi fungsi likelihood maksimum untuk kombinasi prediktor model.

“Implementasi prosedur kuadrat terkecil dengan pembobotan berulang memastikan bahwa pencarian titik stasioner fungsi likelihood pada keluarga eksponensial dapat diraih dengan presisi konvergensi kuadratik.” (Dobson & Barnett, 2008)

3. Arsitektur Perangkat Lunak dan Komputasi Client-Side

Aplikasi analitik ST-Engine GLM ini disusun dengan memanfaatkan kerangka komputasi edge-client mutakhir. Proses komputasi yang secara konvensional ditugaskan kepada server penyedia, kini direlokasi sepenuhnya ke dalam sumber daya perangkat lokal pengguna. Komposisi teknis yang membentuk infrastruktur ini meliputi:

  • Engine WebAssembly (R-WASM): Alat ini mendistribusikan subsistem R secara internal melalui teknologi WebR. Sistem memanggil pustaka dasar stats untuk operasi fungsi glm() dan memuat fungsi glm.nb() dari pustaka MASS untuk menstimulasi perhitungan distribusi Binomial Negatif secara presisi. Kapasitas ini memastikan bahwa nilai matriks informasi dan Standard Error identik dengan komputasi desktop analitik terstandarisasi. Pustaka AER turut dikooptasikan untuk menyediakan fungsionalitas pengujian dispersi jika data Poisson dimasukkan.
  • Isolasi Vanilla JavaScript: Manajemen logika antarmuka dan penanganan penguraian format Comma-Separated Values (CSV) direkayasa murni menggunakan Vanilla JavaScript (ECMAScript modern) tanpa kebergantungan pada kerangka kerja eksternal. Struktur pemrograman ini memberikan kekebalan sistem terhadap manipulasi Document Object Model (DOM) yang sering diterapkan oleh tema-tema optimasi WordPress, serta meminimalisasi risiko fragmentasi atau penundaan dari aplikasi pengompresi LiteSpeed Cache.
  • Eksekusi Karantina Memori (Asynchronous Promises): Modul perhitungan iteratif multivariat memerlukan daya komputasi yang intensif. Oleh karenanya, fungsi analitis dibungkus dalam metode asynchronous sehingga tabuler antarmuka tidak membeku atau merusak pengalaman berselancar pengunjung selama algoritma Maximum Likelihood memformulasikan invers matriks kovarians pada volume pengamatan masif.

4. Panduan Manual Penggunaan Alat Analisis

Validitas estimasi dari GLM mensyaratkan pemahaman dan perlakuan struktural terhadap pengisian data. Pengoperasian program diklasifikasikan ke dalam alur logis berikut:

4.1. Persiapan Struktur Tabel dan Unggah Data

Langkah awal dari regresi menuntut ketersediaan data numerik yang tertata dalam struktur baris sebagai kasus (observasi) dan kolom sebagai variabel. Sistem desimal wajib mengikuti konvensi internasional dengan menggunakan titik (`.`) dan bukan koma.

  • Fungsi Data Simulasi Uji Coba: Tersedia fasilitas untuk merekayasa kerangka data secara artifisial melalui tombol Data Simulasi. Aksi ini memicu pembangkitan seratus baris observasi fiktif (data medis hipotetis) yang memiliki distribusi variabel terikat bervariasi dengan derajat asimetri positif, guna memberikan pratinjau konkret akan operasi alat pengukuran ini.
  • Penempelan Data Berurutan (Copy-Paste): Pengguna dapat menyalin rangkaian sel secara blokir langsung dari utilitas MS Excel atau luaran IBM SPSS dan meletakkannya di sudut kiri paling atas pada kisi-kisi input Grid aplikasi, dan sistem otomatis mereplikasi seluruh struktur.
  • Fungsi Unggahan CSV: Metode ini direkomendasikan bagi pengguna yang meneliti volume populasi ratusan hingga ribuan entri. Proses unggahan ini berjalan secara pasif pada sisi klien, memastikan bahwa kerahasiaan kepemilikan rekam jejak riset terlindungi tanpa intervensi transfer protokol server luar.

Tutup fase pertama ini dengan menegaskan penguncian variabel menggunakan tombol Simpan Data & Lanjut Mapping yang akan mengonversi parameter vektor ke fase berikutnya.

4.2. Pemetaan Variabel dan Penentuan Skala Relasional

Tahapan ini berfungsi mendikte penempatan spasial peranan setiap entitas pengamatan pada persamaan struktur model linear.

  • Bilik Independen Numerik (Covariates): Pindahkan seluruh variabel independen yang memiliki rasio interval atau kuantitatif berskala kontinyu. Variabel di dalam bilik ini akan diperlakukan sebagai pengali nilai derajat kontinu (tanpa penciptaan boneka).
  • Bilik Independen Kategorik (Factors): Variabel kualitatif yang mengindikasikan identitas grup (misal klasifikasi nominal atau ordinal, seperti kategori jenis kelamin atau area demografis) harus ditransfer kemari. Mesin akan melakukan translasi kode internal untuk membentuk set parameter matriks kontras (dummy encoding) secara otomatis dengan mempertahankan jenjang nilai alfabetikal termuda sebagai basis referensi (intercept comparator).
  • Bilik Variabel Dependen (Y): Entitas utama yang hendak diuji. Pastikan variabel yang disisipkan bersesuaian dengan opsi spesifikasi sebaran distribusi yang kelak ditentukan. Hanya diizinkan 1 (satu) variabel saja di lokasi ini.

4.3. Konfigurasi Opsi Distribusi dan Fungsi Tautan (Link Function)

Kesalahan fatal penentuan analisis eksponensial terletak di tahap ini. Anda wajib menyelaraskan keluarga probabilitas model dengan sifat empiris variabel terikat (Y):

  • Normal (Gaussian): Untuk variabel $Y$ berskala interval yang berdistribusi simetris seimbang. Tautan utama yang dipakai adalah tautan Identitas (Identity). Hasil akan identik ekuivalen dengan Ordinary Least Squares.
  • Binomial: Tepat bagi data observasi sukses-gagal (dikotomis) atau nilai proporsi batas. Secara baku mengadopsi fungsi tautan Logit (untuk regresi logistik standar) atau Probit (distribusi probabilitas normatif).
  • Poisson: Didedikasikan mutlak bagi data cacah (Count) berupa bilangan bulat positif tanpa fraksi desimal (misalnya: frekuensi jumlah kunjungan, jumlah kecelakaan beruntun). Selalu dipasangkan dengan fungsi tautan Logaritma (Log Link).
  • Negative Binomial: Alternatif komplementer dari Poisson manakala parameter overdispersi mendera data rasio cacah (sebaran varians melambung lebih luas ketimbang rata-ratanya).
  • Gamma & Inverse Gaussian: Ideal digunakan untuk menampung residu variabel kontinyu dengan sifat kemencengan asimetris mencolok (positif) serta nilai batas $Y$ selalu bernilai lebih dari nol (contoh: beban biaya aktuaria, durasi ketahanan teknis murni).

Aktuasi diinisiasi melalui tombol JALANKAN GLM ANALYSIS.

ALUR PEMROSESAN INTERNAL:

[Pembacaan Grid JSON] → [Translasi Array to WebR Environment] →
[Penyusunan Formula y ~ x_cov + as.factor(x_cat)] →
[Pemanggilan Fungsi Inti glm(family=...) / glm.nb(...)] →
[Penurunan Log-Likelihood Fisher Scoring Iterations] →
[Ekstraksi Pseudo R-Square, Deviance Goodness of Fit, Parameter Wald $\chi^2$] →
[Pencetakan HTML Output Tabel Asimtotik]

4.4. Cara Membaca Output: Interpretasi Tabel Asimtotik

Banyak pengguna yang terjebak menyamakan parameter GLM dengan bacaan linear OLS standar. Matriks evaluasi dari ST-Engine mendistribusikan tabel pengujian yang persis paralel dengan luaran modul IBM SPSS Generalized Linear Models. Berikut uraian sistematisnya:

A. Tabel Model Fitting Information (Uji Signifikansi Bersama / Omnibus Test)

Tabel ini melakukan evaluasi makro untuk menginvestigasi hipotesis bahwa semua parameter kemiringan regresi bernilai nol.

  • Likelihood Ratio Chi-Square: Angka ini menggambarkan seberapa besar selisih log-likelihood antara model terbatas (hanya mengukur intersep rata-rata/Intercept Only) versus model utuh yang telah diinjeksikan himpunan variabel bebas Anda.
  • df (Derajat Kebebasan): Selisih jumlah parameter penaksir (jumlah variabel dikurangi parameter intersep referensi) antara model awal dan akhir.
  • Sig. (P-Value): Inilah nilai probabilitas pengujian. Apabila indeks kolom ini memancarkan nilai lebih kecil dari ambang signifikansi 0.05, model menolak hipotesis null secara kolektif. Maknanya: Secara bersama-sama, seluruh variabel penjelas yang dilibatkan memberikan porsi penjelasan yang signifikan secara statistik dalam mendikte respons probabilitas atau variasi fluktuasi dari variabel terikat.

B. Tabel Goodness of Fit (Pengukuran Kualitas dan Kesesuaian Distribusi Model)

Uji yang bertugas memverifikasi sejauh mana fungsi teoretis yang disusun selaras memotret sebaran faktual sampel empiris tanpa penyimpangan jarak sisaan (residuals) yang berlebih.

  • Deviance & Pearson Chi-Square: Dua metrik yang merangkum ukuran ketidaksesuaian entropi data.
  • Value / df (Rasio Skala Varian): Ini merupakan pedoman heuristik emas yang paling banyak dilirik peneliti statistik. Pembagian rasio statistik varians terhadap derajat kebebasan (degrees of freedom) yang diidealkan harus menghasilkan angka di sekitar 1.00. Apabila indeks rasio Deviance/df (terutama pada model cacah Poisson) membengkak ekstrem melewati batas angka 1.5 atau 2.0, ia mengirimkan sinyal diagnostik adanya sindrom overdispersi (overdispersion). Saat indikasi overdispersi muncul, pengguna dilarang keras melanjutkan pembacaan parameter regresi Poisson, dan diinstruksikan menata ulang opsi konfigurasi menuju distribusi regresi Binomial Negatif.

C. Tabel Pseudo R-Square (Proyeksi Determinasi)

Berbekal absennya kalkulasi rasio sisaan kuadrat murni, regresi probabilitas MLE memfasilitasi indeks koefisien penentu buatan (pseudo determinan).

  • Cox and Snell / McFadden / Nagelkerke: Angka-angka skalar ini menjabarkan proporsi ragam variabilitas sebaran $Y$ yang mampu diikat secara modelistik oleh matriks persekutuan $X$. Pengutipan paling lazim digunakan adalah indeks Nagelkerke (karena dinormalisasi menyentuh 1.0). Nilai 0.485, umpamanya, mendefinisikan bahwa gabungan variabel independen sanggup menuntaskan penyajian penjelasan variasi kelompok probabilitas atau pengamatan data sebesar 48.5%.

D. Tabel Parameter Estimates (Koefisien Parsial & Odds/Rate Ratios)

Tabel pamungkas untuk menjawab perumusan hipotesis individual. Parameter yang terekam adalah fungsi non-linear yang tidak bisa dibaca kasat mata layaknya angka absolut OLS.

  • B (Estimate): Mendikte trajektori efek relasional dalam lingkup fungsi logaritma/logitnya. Simbol negatif menandakan peluruhan pengaruh, dan simbol positif mencerminkan stimulus dorongan nilai harapan rata-rata.
  • Std. Error & Wald Chi-Square: Galat standar dan perimbangan estimasi hipotesis (Wald diakumulasi dari pemangkatan nilai $B/SE$). Peringatan keras: Standar error yang meledak membengkak tanpa preseden mengindikasi bahwa rancangan data Anda didera patologi multikolinearitas eksesif atau pembagian data silang nol kelompok konstan.
  • Sig. (P-Value): Menjawab kesahihan signifikansi parsial variabel tersebut secara spesifik. Apabila nilainya < 0.05, peneliti mendeklarasikan adanya pengaruh mutlak secara mandiri oleh prediktor tersebut.
  • Exp(B): Translasi logaritmis yang amat bernilai bagi kesimpulan laporan jurnal eksakta. Interpretasi koefisien ini bergantung mutlak pada fungsi tautan (Link Function) yang diinisiasi sejak mula:
    1. Tautan Logit (Logistic Regression): Berperan sebagai Odds Ratio. Angka `1.30` bermakna peluang relatif terjadinya insidensi variabel respon meningkat 30% pada setiap pertumbuhan 1 unit prediktor absolut.
    2. Tautan Log (Poisson / Negative Binomial): Berperan sebagai Incidence Rate Ratio (IRR). Angka `2.50` memformulasikan pelaporan: Perubahan satu satuan pada variabel independen akan mengalikan lipat-gandakan frekuensi hitungan observasi data (contoh hitungan hari rawat inap pasien) ekspektasi kejadian hingga sebanyak 2.5 kali lipat tingginya dari status semula. Angka < 1.00 (misalnya `0.70`) mengilustrasikan efek penyusutan intensitas perhitungan (yakni 30% penurunan tingkat frekuensi kasus).
  • 95% Wald Confidence Interval for Exp(B): Batas interval batas atas dan bawah probabilitas estimasi. Syarat ketegasan uji signifikansi adalah bentangan rentang kognitif interval asimtotik tersebut tidak boleh sama sekali menghimpit, menyentuh, apalagi melewati angka tunggal pusat 1.00 (kecuali untuk efek batas intersep dan skala pengali varian konstan).

E. Formula Persamaan Linear Eksponensial (Equation)

Mesin analitis menyarikan abstraksi matriks kemiringan parameter ($B$) dan membangun susunan formulasi matematis untuk dipublikasikan. Pola seperti ln(E(y)) = 1.25 + 0.4*X1 ... merupakan penulisan akademik yang shahih (valid) mendemonstrasikan bahwa sistem perhitungan tidak dijalankan dengan skala aditif melainkan skala rasio probabilitas pengali (perhatikan fungsi ln).

5. Konklusi Kompetitif: Manfaat Aplikasi dan Limitasi Instrumental

Kelebihan Komparatif (Keunggulan Fungsional):

  1. Derivasi Kesetaraan Analitik Komersial: ST-Engine menyadur fungsi optimasi kompilasi glm R yang diselaraskan melalui format parameter asimtotik IBM SPSS. Angka hasil pengujian Deviance Goodness of Fit hingga uji rasio kemungkinan (Likelihood Ratio Omnibus) divalidasi kebal secara leksikal matematis. Hal ini melayakkan output luaran Anda digunakan langsung untuk pemenuhan tesis eksakta pascasarjana tanpa distorsi pembulatan bilangan semu.
  2. Supremasi Ruang Isolasi Privasi (Zero Server Communication): Memerangi ketergantungan *cloud computing* yang mengancam kepatuhan non-disclosure agreement data primer riset korporat, seluruh miliaran iterasi eksekusi log-likelihood murni dirancang hanya untuk beroperasi di dalam ruang peramban perangkat pengguna itu sendiri. Kedaulatan basis data tetap terjaga steril di ranah lokal tanpa intervensi akses perpindahan jaringan data ke peladen jauh.
  3. Netralitas Platform Eksekusi: Eliminasi kerumitan proses instalasi dependensi atau pembelian kunci pendaftaran perangkat lunak. Program berjalan paripurna di Linux Ubuntu murni, sistem MacOS termutakhir, maupun terminal sistem operasi Windows klasik selama dilengkapi penjelajah peramban teroptimasi pemroses modern.

Kekurangan Termanifestasi (Keterbatasan Sistem):

  1. Penundaan Pengunduhan Biner Singgahan (*Preload Cold-Start*): Eksekusi asinkron komputasi menuntut pemuatan pangkalan perpustakaan R biner yang memakan ruang hingga berkisar 25 Megabyte di latar belakang. Proses ini menyita penundaan waktu muat awal sekitar satu hingga dua menit pada lawatan pengunjung sesi inisialisasi yang bergantung erat pada kapasitas kecepatan stabilitas lebar pita (bandwidth) koneksi jaringan pengguna.
  2. Sindrom Kolaps Memori pada Entri Populasi Masif: Proses pembalikan (inversi) matriks perhitungan Hessian untuk galat devians multivariat merenggut alokasi memori. Pembebanan baris observasi pengamatan hingga melampaui jutaan larik kasus sensus dapat meretas titik kebekuan pemrosesan (browser Out of Memory Crash) pada peranti peranti laptop dengan ruang Random Access Memory kriteria dasar, sehingga tab laman terpaksa mendera macet operasional sirkuit total.

6. Daftar Pustaka

Daftar pusaka referensi keilmuan yang melandasi landasan teoretis arsitektur formula statistik komputasional pada ST-Engine GLM:

  • Agresti, A. (2015). Foundations of Linear and Generalized Linear Models. John Wiley & Sons.
  • Cameron, A. C., & Trivedi, P. K. (2013). Regression Analysis of Count Data (2nd ed.). Cambridge University Press.
  • Dobson, A. J., & Barnett, A. G. (2008). An Introduction to Generalized Linear Models (3rd ed.). Chapman and Hall/CRC.
  • Hilbe, J. M. (2014). Modeling Count Data. Cambridge University Press.
  • McCullagh, P., & Nelder, J. A. (1989). Generalized Linear Models (2nd ed.). Chapman and Hall/CRC.
  • Venables, W. N., & Ripley, B. D. (2002). Modern Applied Statistics with S (4th ed.). Springer.
Daftar Tool Analisis Statistik Online Statistikian
Scroll to Top
Jasa Olah dan Analisis Statistik Oleh Statistikian Tahun 2024