Jaringan Kohonen diperkenalkan pada 1982 oleh peneliti Finlandia Tuevo Kohonen [1]. Meskipun awalnya diterapkan untuk analisis gambar dan suara, Jaringan Kohonen tetap merupakan mekanisme yang efektif untuk analisis Clustering. Kohonen jaringan mewakili jenis SELFORGANIZING MAPS (SOM), yang itu sendiri merupakan kelas khusus neural networks, yang kita pelajari di Bab 9. Tujuan dari SELF-ORGANIZING MAPS adalah untuk mengkonversi kompleks tinggi dimensi sinyal input ke sederhana rendah dimensi peta diskrit [2]. Dengan demikian, SOM cocok untuk analisis cluster, di mana pola tersembunyi yang mendasari antara catatan dan bidang yang dicari. SOM struktur node output ke dalam cluster dari node, di mana node dalam jarak dekat lebih mirip dengan satu sama lain daripada node lain yang jauh terpisah. Ritter [3] telah menunjukkan bahwa SOM mewakili generalisasi nonlinier dari analisis komponen utama, teknik pengurangan dimensi lain. SOM didasarkan pada pembelajaran kompetitif, di mana node output bersaing di antara mereka sendiri untuk menjadi winning node (atau neuron), satu-satunya node yang akan diaktifkan oleh pengamatan input tertentu. Seperti Haykin [2] menggambarkannya: "neuron menjadi selektif disetel untuk berbagai pola masukan (rangsangan) atau kelas pola masukan dalam proses pembelajaran yang kompetitif." Arsitektur SOM khas ditunjukkan pada gambar 11,1. Lapisan input ditampilkan di bagian bawah gambar, dengan satu node input untuk setiap bidang. Sama seperti dengan neural networks, node input ini tidak melakukan pengolahan sendiri tetapi hanya melewatkan nilai input Lapangan sepanjang hilir. Seperti neural networks, Som adalah feedforward dan sepenuhnya terhubung. Jaringan feedforward tidak mengizinkan looping atau bersepeda. Sepenuhnya terhubung berarti bahwa setiap node dalam lapisan tertentu terhubung ke setiap node dalam lapisan berikutnya, meskipun tidak ke node lain dalam lapisan yang sama. Seperti neural networks, setiap koneksi antara node memiliki bobot yang terkait dengannya, yang pada inisialisasi ditugaskan secara acak ke nilai antara nol dan 1. Menyesuaikan bobot ini mewakili kunci untuk mekanisme pembelajaran di neural networks dan SOM. Nilai variabel perlu dinormalkan atau distandarisasi, sama seperti neural networks, sehingga variabel tertentu tidak membanjiri yang lain dalam algoritma pembelajaran.
Tidak seperti kebanyakan neural networks, namun, SOM tidak memiliki lapisan tersembunyi. Data dari lapisan input diteruskan langsung ke lapisan output. Layer output diwakili dalam bentuk kisi, biasanya dalam satu atau dua dimensi, dan biasanya dalam bentuk persegi panjang, meskipun bentuk lain, seperti segi enam, dapat digunakan. Lapisan output yang ditunjukkan pada gambar 11,1 adalah persegi 3 × 3.
Gambar 11,1 topologi dari sebuah peta pengorganisasian-sendiri sederhana untuk data Clustering berdasarkan usia dan pendapatan. Untuk catatan tertentu (contoh), nilai bidang tertentu diteruskan dari node input tertentu untuk setiap node dalam lapisan output. Misalnya, nilai usia dan pendapatan yang dinormalkan untuk catatan pertama dalam kumpulan data adalah 0,69 dan 0,88, masing-masing. Nilai 0,69 akan memasuki SOM melalui node input yang terkait dengan usia, dan node ini akan melewati nilai ini 0,69 untuk setiap node dalam lapisan output. Demikian pula, nilai 0,88 akan didistribusikan melalui input node pendapatan untuk setiap node dalam lapisan output. Nilai ini, bersama dengan bobot yang ditugaskan untuk masing-masing koneksi, akan menentukan nilai dari fungsi penilaian (seperti jarak Euclidean) untuk setiap node output. Node output dengan hasil "terbaik" dari fungsi scoring kemudian akan ditunjuk sebagai simpul pemenang. SOM menunjukkan tiga proses karakteristik:
1. persaingan. Seperti disebutkan di atas, node output bersaing satu sama lain untuk menghasilkan nilai terbaik untuk fungsi penilaian tertentu, paling sering jarak Euclidean. Dalam hal ini, node output yang memiliki jarak Euclidean terkecil antara input bidang dan beban sambungan akan dinyatakan sebagai pemenang. Kemudian, kita memeriksa secara rinci contoh bagaimana ini bekerja. 2. kerjasama. Node yang menang karena itu menjadi pusat lingkungan yang bersemangat neuron. Ini mengemulasi perilaku neuron manusia, yang sensitif terhadap output dari neuron lain di lingkungan langsung mereka. Di SOM, semua node dalam lingkungan ini berbagi dalam " excitement " atau " reward " yang diperoleh oleh winning nodes, bahwa adaptasi. Dengan demikian, meskipun node dalam lapisan output tidak terhubung secara langsung, mereka cenderung untuk berbagi fitur umum, karena parameter neighborliness. 3. adaptasi. Node di lingkungan yang winning nodes berpartisipasi dalam adaptasi, yaitu, belajar. Bobot dari node ini disesuaikan sehingga lebih meningkatkan fungsi Skor. Dengan kata lain, node ini dengan demikian akan memiliki kesempatan peningkatan memenangkan kompetisi sekali lagi, untuk set serupa nilai lapangan.