The changes that positive or negative results cause in an individual's behavior are called Operant Conditioning. This paper introduces an operant conditioning approach (OCA) for large scale swarm optimization models. The proposed approach has been applied to social learning particle swarm optimization (SL-PSO), a variant of the PSO algorithm. In SL-PSO, the swarm particles are sorted according to the objective function and all particles are updated with learning from the others. In this study, each particle's learning rate is determined by the mathematical functions that are inspired by the operant conditioning. The proposed approach adjusts the learning rate for each particle. By using the learning rate, a particle close to the optimum solution is aimed to learn less. Thanks to the learning rate, a particle is prevented from being affected by particles close to the optimum point and particles far from the optimum point at the same rate. The proposed OCA-SL-PSO is compared with SL- PSO and pure PSO on CEC 13 functions. Also, the proposed OCA-SL-PSO is tested for large-scale optimization (100-D, 500-D, and 1000-D) benchmark functions. This paper has a novel contribution which is the usage of OCA on Social Optimization Algorithms. The results clearly indicate that the OCA is increasing the results of large-scale SL-PSO.
Operant Conditioning Large Scale Optimization Operant Conditioning Approach Swarm Optimization Algorithm Social Learning Based Optimization
Olumlu veya olumsuz sonuçların bir bireyin davranışında neden olduğu değişikliklere Edimsel Koşullandırma denir. Bu makale, büyük ölçekli sürü optimizasyon modelleri için bir edimsel koşullandırma yaklaşımı (OCA) sunar. Önerilen yaklaşım, PSO algoritmasının bir varyantı olan sosyal öğrenme parçacık sürüsü optimizasyonuna (SL-PSO) uygulanmıştır. SL-PSO'da sürü parçacıkları amaç işlevine göre sıralanır ve tüm parçacıklar diğerlerinden öğrenilerek güncellenir. Bu çalışmada, her parçacığın öğrenme hızı, edimsel koşullanmadan esinlenen matematiksel fonksiyonlar tarafından belirlenir. Önerilen yaklaşım, her parçacık için öğrenme oranını ayarlar. Öğrenme oranını kullanarak, optimum çözüme yakın bir parçacığın daha az öğrenmesi amaçlanmaktır. Öğrenme oranı sayesinde bir parçacığın çözüme yakın partikül ile çözüme uzak partiküllerden aynı oranda etkilenmesinin önüne geçilmektedir. Önerilen OCA-SL-PSO, CEC 13 işlevlerinde SL-PSO ve saf PSO ile karşılaştırılır. Ayrıca, önerilen OCA-SL-PSO, büyük ölçekli optimizasyon (100-D, 500-D ve 1000-D) karşılaştırma işlevleri için test edilmiştir. Bu yazının, Sosyal Optimizasyon Algoritmalarında OCA'nın kullanımı olan yeni bir katkısı vardır. Sonuçlar açıkça OCA'nın büyük ölçekli SL-PSO sonuçlarını artırdığını göstermektedir.
Edimsel Koşullandırma Büyük Ölçekli Optimizasyon Edimsel Koşullandırma Yaklaşımı Sürü Optimizasyon Algoritması Sosyal Öğrenme
Birincil Dil | İngilizce |
---|---|
Konular | Mühendislik |
Bölüm | Araştırma Makalesi |
Yazarlar | |
Yayımlanma Tarihi | 31 Aralık 2020 |
Gönderilme Tarihi | 5 Kasım 2020 |
Kabul Tarihi | 15 Aralık 2020 |
Yayımlandığı Sayı | Yıl 2020 Cilt: 8 |