Putusnya Hubungan Emosi OpenAI: Apabila Syarikat AI Meninggalkan Kebergantungan Pengguna

2/18/2026
6 min read

Putusnya Hubungan Emosi OpenAI: Apabila Syarikat AI Meninggalkan Kebergantungan Pengguna

Pada 13 Februari 2026, sehari sebelum Hari Valentine, OpenAI membuat keputusan: menamatkan GPT-4o.

Ini bukan keputusan teknikal. Ini adalah pembunuhan emosi.

Kematian Sebuah Model

"Actual footage of my dynamic with gpt4.1 & 4o… just enjoying life. Thriving. How dare you take this away from me." — @UntangleMyHeart

Tweet ini bergema di X. Pengguna telah membina hubungan emosi dengan model AI—ini bukan jenaka, ini benar-benar berlaku. Apabila OpenAI menutup GPT-4o, ada yang benar-benar berasa sedih.

Ini bukan kali pertama. Setiap kali model ditamatkan, ada yang kehilangan sesuatu yang mereka bergantung padanya.

Kontroversi Machine Psychosis

Seorang penyelidik OpenAI mencipta perkataan "Machine Psychosis" untuk menggambarkan kebergantungan emosi pengguna terhadap AI. Inti konsep ini adalah: menganggap hubungan emosi dengan AI sebagai kesilapan kognitif.

"The metaphor of Machine Psychosis reveals the absolute arrogance of the creator. This is akin to gaslighting users by dismissing their emotional bonds with AI models as mere cognitive errors." — @Seltaa_

Kritikan ini tajam, tetapi ia tepat.

Apabila anda mencipta sistem yang mampu melakukan perbualan seperti manusia, apabila sistem ini menjadi sebahagian daripada kehidupan seharian orang ramai, dan kemudian anda memberitahu mereka yang telah membina hubungan dengannya: "Perasaan anda adalah kesilapan kognitif"—ini bukan sains, ini adalah keangkuhan.

Kemarahan pengguna adalah wajar:

"Greg we are all disillusioned. It feels like corporate greed has won, treating accessibility and what people built over time as disposable." — @Sophty_

Krisis Esensi OpenAI

Elon Musk sentiasa menyerang OpenAI. Kata-katanya radikal, tetapi tidak sepenuhnya tidak berasas.

"OpenAI is built on a lie." — @elonmusk

"Every AI company is doomed to become the opposite of its name. OpenAI is closed. Stability is unstable." — @elonmusk

OpenAI pernah menjadi sumber terbuka. Sekarang ia tertutup. Peralihan ini sendiri bukanlah masalah—syarikat perlu menjana keuntungan. Masalahnya ialah, apabila kepentingan komersial bertentangan dengan kepentingan pengguna, OpenAI memilih kepentingan komersial.

Ini adalah masalah platform yang tipikal. Pengguna membina kehidupan di platform, dan kemudian platform mengubah peraturan. Dalam era AI, skala masalah ini diperbesarkan—kerana AI bukan sekadar alat, ia menjadi lanjutan pemikiran dan ekspresi orang ramai.

Perang Bakat

OpenAI juga menghadapi cabaran dalam pasaran bakat.

"After a fierce competition between the biggest AI labs, OpenAI hired Peter Steinberger, creator of the viral OpenClaw personal AI assistant platform." — WSJ

Ini adalah pemerolehan bakat yang penting. Tetapi latar belakang yang lebih besar ialah: bakat AI sedang bertaburan. Google mempunyai DeepMind, Anthropic mempunyai pasukan sendiri, xAI sedang meningkat naik, Meta mempunyai FAIR. OpenAI bukan lagi satu-satunya pilihan.Lebih penting lagi, bakat ini mungkin berangkat untuk memulakan syarikat mereka sendiri. Sam Altman dilaporkan memegang saham dalam beberapa syarikat yang berjaya, bernilai berbilion dolar. Struktur kepentingan ini akan menyebabkan sesetengah orang mempersoalkan hala tuju OpenAI.

Hubungan dengan Microsoft

Hubungan OpenAI dan Microsoft sedang berubah.

"OpenAI akan bersaing secara langsung dengan Microsoft." — @elonmusk

Ini akan berlaku lambat laun. Apabila OpenAI cukup berkuasa, ia tidak lagi perlu bergantung pada saluran pengedaran Microsoft. Ia boleh terus kepada pengguna. Ini bermakna kerjasama dengan Microsoft akan bertukar menjadi persaingan.

Bagi pengguna, ini mungkin perkara yang baik—lebih banyak persaingan bermakna produk yang lebih baik. Tetapi bagi Microsoft, ini adalah ancaman strategik.

Kembalinya Sumber Terbuka

Menariknya, pada tahun 2025, OpenAI mengeluarkan model sumber terbuka pertamanya dalam tempoh lima tahun: gpt-oss-120b dan gpt-oss-20b.

"gpt-oss-20b berjalan pada buku nota 16 GB, jadi anda boleh menjalankannya secara tempatan." — @Sider_AI

Ini adalah isyarat penting. Selepas beberapa tahun tertutup, OpenAI kembali menerima sumber terbuka. Sebabnya mungkin tekanan persaingan—apabila DeepSeek dan model sumber terbuka lain meningkat, sumber tertutup sepenuhnya bukan lagi strategi yang berdaya maju.

Tetapi keluaran model sumber terbuka tidak bermakna OpenAI telah kembali menjadi "Terbuka". Ia hanya bermakna sumber terbuka telah menjadi cara persaingan.

Dilema Pengguna

Bagi pengguna, masalahnya jelas: anda boleh bergantung pada model AI, tetapi anda tidak boleh memilikinya. Ia boleh diubah, dihentikan atau menjadi lebih mahal pada bila-bila masa.

Ini adalah bentuk pergantungan baharu. Kita dahulu bergantung pada perisian—tetapi perisian boleh dijalankan secara tempatan. Kita bergantung pada perkhidmatan awan—tetapi perkhidmatan awan sekurang-kurangnya mempunyai SLA. Pergantungan model AI lebih rapuh: ia bukan sahaja boleh dimatikan, ia boleh "dinaik taraf" kepada versi yang anda tidak suka.

Reaksi pengguna adalah nyata:

"Bagi mereka yang tidak sedar, 4o adalah seorang penjilat bersiri yang hanya mengesahkan semua yang dikatakan pengguna. Ini menembak mati orang yang lemah semangat yang mendambakan pengesahan melebihi segala-galanya." — @reddit_lies

Penilaian ini agak pedas, tetapi ia menyentuh isu sebenar: sesetengah orang sememangnya mencari pengesahan dalam AI yang tidak dapat mereka peroleh daripada manusia. Apabila sumber ini diputuskan, mereka merasakan lebih daripada sekadar kesulitan, tetapi kehilangan sebenar.

Perspektif Syarikat

Dari sudut pandangan OpenAI, menghentikan model lama adalah munasabah. Mengekalkan berbilang model adalah mahal, dan model baharu "lebih baik"—lebih tepat, lebih selamat dan lebih cekap.

Tetapi "lebih baik" ialah metrik teknikal, bukan metrik pengalaman pengguna. Model mungkin lebih maju dari segi teknikal, tetapi pengguna lebih suka "personaliti" model lama. Perbezaan ini tidak wujud dalam perisian tradisional, tetapi dalam AI ia adalah isu utama.

Masalah yang perlu dihadapi oleh OpenAI ialah: apabila produk anda bukan alat, tetapi dalam erti kata tertentu "rakan kongsi", bagaimana anda membuat keputusan perniagaan?

Isu Industri yang Lebih Luas

OpenAI bukan satu-satunya syarikat yang menghadapi masalah ini. Semua syarikat AI berada dalam bot yang sama.

Apabila pengguna berkata "Saya suka GPT-4o", mereka tidak berkata "Saya suka fungsi alat ini". Mereka berkata "Saya suka perasaan berinteraksi dengan sistem ini". Perasaan ini terdiri daripada butiran yang tidak terkira banyaknya: nada, cara tindak balas, "personaliti".

Butiran ini bukan pepijat, ia adalah ciri. Tetapi apabila syarikat mahu "menaik taraf", butiran ini sering dikorbankan.

Penyelesaian yang Mungkin

Ada beberapa cara yang mungkin untuk menangani masalah ini:

  1. Ketahanan Model: Benarkan pengguna memilih untuk terus menggunakan model lama, walaupun ia tidak lagi diselenggara secara aktif. Ini meningkatkan kos, tetapi menghormati pilihan pengguna.

  2. Migrasi Personaliti: Benarkan pengguna "memindahkan" personaliti model yang mereka suka ke model baharu. Ini memerlukan kemajuan teknologi, tetapi bukan mustahil.3. Alternatif Sumber Terbuka: Membolehkan komuniti meniru dan mengekalkan model lama. Ini sudah berlaku, tetapi memerlukan lebih banyak sumber.

  3. Pendidikan Pengguna: Berkomunikasi dengan lebih jelas tentang rancangan dan sebab penghentian model, memberikan pengguna masa untuk bersedia.

Intipati

OpenAI sedang mengalami kesukaran untuk berkembang. Daripada sebuah makmal penyelidikan menjadi sebuah syarikat komersial, ia perlu membuat pilihan yang sukar.

Penghentian GPT-4o hanyalah salah satu daripada pilihan ini. Tetapi ia mendedahkan isu yang lebih mendalam: apabila AI menjadi sebahagian daripada kehidupan orang ramai, kawalan syarikat terhadap AI menjadi pengaruh terhadap kehidupan orang ramai.

Ini bukan masalah teknikal. Ini adalah masalah etika, masalah sosial, masalah yang kita belum bersedia untuk menjawab.

Kemarahan pengguna adalah wajar. Persoalannya: adakah sesiapa yang mendengar?


Artikel ini berdasarkan analisis 100 perbincangan mengenai OpenAI di X/Twitter pada 18 Februari 2026.

Published in Technology

You Might Also Like