? 我們之前也總結(jié)過,什么方格網(wǎng)絡(luò)的規(guī)模啊、每輪的收益如何計算、一個個體要計算幾輪,以及計算總收益等等,這些已經(jīng)耳熟能詳了,在此不過多贅述了。
? 因為是二階的聲譽演化規(guī)則,所以聲譽值的變化同時跟個體i的策略和他的鄰居策略有關(guān)系,因此其聲譽值更新規(guī)則不同于一階的聲譽演化規(guī)則。
R i ( t ) = { R i ( t ? 1 ) + 1 , i f S i ( t ) = C ? a n d ? S m ( t ) = C R i ( t ? 1 ) + θ , i f S i ( t ) = C ? a n d ? S m ( t ) = D R i ( t ? 1 ) ? θ , i f S i ( t ) = D ? a n d ? S m ( t ) = C R i ( t ? 1 ) ? 1 , i f S i ( t ) = D ? a n d ? S m ( t ) = D (1) R_i(t)=\begin{cases} R_i(t-1)+1,&if S_i(t)=C\text{ }and \text{ }S_m(t)=C \\ R_i(t-1)+ \theta ,&ifS_i(t)=C \text{ } and\text{ } S_m(t)=D\\ R_i(t-1)-\theta,& ifS_i(t)=D\text{ }and\text{ }S_m(t)=C \\R_i(t-1)-1,&if S_i(t)=D\text{ }and\text{ }S_m(t)=D \end{cases} \tag{1} Ri?(t)=? ? ??Ri?(t?1)+1,Ri?(t?1)+θ,Ri?(t?1)?θ,Ri?(t?1)?1,?ifSi?(t)=C?and?Sm?(t)=CifSi?(t)=C?and?Sm?(t)=DifSi?(t)=D?and?Sm?(t)=CifSi?(t)=D?and?Sm?(t)=D?(1)
其中,個體i的鄰居m,是個體i的所有鄰居中,聲譽值最低的那個鄰居。θ是對于自己合作鄰居判斷的補償亦或者自己背叛鄰居合作的懲罰。
? 同質(zhì)的概念我在筆記<<論文閱讀中的知識點>>中已經(jīng)詳細(xì)介紹,此處不在贅述。
? 這個同質(zhì)很簡單,大家的推理能力都一樣,P的取值可以從0-1任意取值,并且每個人的推理能力P是一樣的。
? P是一個異質(zhì)性內(nèi)生的參數(shù),假設(shè)這個能力值P跟個體的聲譽值呈現(xiàn)負(fù)相關(guān)的線性關(guān)系,且其概率由博弈過程中的某些變量進(jìn)行控制,并非外來變量或函數(shù)分布,具體公式如下所示:
P
=
1
?
R
R
m
a
x
?
b
(2)
P=1-\frac{R}{R_{max}}*b \tag{2}
P=1?Rmax?R??b(2)
? 此時,每個人體的聲譽推理能力隨著本身聲譽值的變化而進(jìn)行變化,是每時每刻每個人都不一樣的。
? P是一個異質(zhì)外生的參數(shù),這個推理能力遵循正態(tài)分布(normal distribution)和冪律分布(power law distribution)。此時,每個個體的推理能力跟個體本身的任何參數(shù)都不相關(guān),其推理能力完全由分布函數(shù)所確定。這里還需要注意的一點是,我們在改變分布函數(shù)的參數(shù)的過程中,要記得對函數(shù)的結(jié)果進(jìn)行歸一化處理。下面我將介紹最小最大值歸一化。
歸一化
- 把數(shù)據(jù)變成(0,1)或者(-1,1)之間的小數(shù)。尤其是0-1之間,可以當(dāng)做隨機概率來使用。
- 把有量綱表達(dá)式變成無量綱表達(dá)式,便于不同單位或量級的指標(biāo)能夠進(jìn)行比較和加權(quán)。
Min-Max Normalization(最小-最大歸一化)
具體公式如下:
x
′
=
x
?
X
m
i
n
X
m
a
x
?
X
m
i
n
(3)
x'=\frac{x-X_{min}}{X_{max}-X_{min}} \tag{3}
x′=Xmax??Xmin?x?Xmin??(3)
其中x為某個特征的原始值,X_min為該特征在所有樣本中的最小值,X_max為該特征在所有樣本中的最大值,x’為經(jīng)過歸一化處理后的特征值,其取值范圍為(0,1)。
Normal distribution Normalization(正態(tài)分布的歸一化)
import numpy as np
# 設(shè)置均值和標(biāo)準(zhǔn)差
mean = 0.1
std_dev = 0.2
# 生成一個符合正態(tài)分布的隨機數(shù)
random_value = np.random.normal(loc=mean, scale=std_dev)
# 如果你希望將隨機值歸一化到 [0, 1] 范圍內(nèi),首先需要定義一個范圍
# 這里我們假設(shè)一個合理的范圍
data_min = mean - 3 * std_dev # 下界(均值-3個標(biāo)準(zhǔn)差)
data_max = mean + 3 * std_dev # 上界(均值+3個標(biāo)準(zhǔn)差)
# 將隨機值歸一化
normalized_value = (random_value - data_min) / (data_max - data_min)
# 確保歸一化后的值在 [0, 1] 范圍內(nèi)
normalized_value = np.clip(normalized_value, 0, 1)
# 輸出結(jié)果
print("隨機產(chǎn)生的概率為:",normalized_value)
? 我們知道的是,正態(tài)分布的99.9%都出在(μ-3?,μ+3?)之間,所以面積的最大值為μ+3?面積的最小值為μ-3?。故可得到上面的公式。
f ( x ) = α x α ? 1 (4) f(x)=\alpha x ^{\alpha -1} \tag{4} f(x)=αxα?1(4)
具體歸一化代碼如下:
import numpy as np
# 設(shè)置冪律分布的 alpha 參數(shù)
alpha = 0.5
# 生成一個符合冪律分布的隨機數(shù)
def generate_power_law(alpha, size=1):
# 生成均勻分布的隨機數(shù)
u = np.random.uniform(0, 1, size)
return alpha*(u**(alpha-1))
# 生成一個隨機值
random_value = generate_power_law(alpha)
# 歸一化
# 對于冪律分布,通??梢灾苯訉⑸傻臄?shù)據(jù)視為范圍[0,1]的概率
normalized_value = np.clip(random_value, 0, 1)
# 輸出結(jié)果
print(f"Normalized value (probability P): {normalized_value}")
其實,本論文中是不是使用這樣的歸一化我尚不敢作如此估計,只能說等我開始仿真這個論文的時候,根據(jù)仿真的結(jié)果來確定我所理解的想法是否正確。
- 在同質(zhì)的情況下,更高聲譽推理能力會使個體傾向于選擇高聲譽的個體進(jìn)行策略的模仿,從而有效的促進(jìn)種群中合作的涌現(xiàn)。
- 在異質(zhì)性內(nèi)生的情況下,越高的異質(zhì)程度越不利于促進(jìn)合作的產(chǎn)生;在異質(zhì)性外生的情況下,當(dāng)處于正態(tài)分布的時候,如果方差足夠大,無論均值是多少合作的水平總是相等的。其次,當(dāng)均值接近于1的時候,冪律分別比正態(tài)分布更優(yōu)。
- 二階聲譽演化規(guī)則相比于一階,會在一定的程度上抑制合作的產(chǎn)生。且聲譽波動幅度越大(這個聲譽波動就跟上面那個公式θ有關(guān)系了),抑制作用越明顯。當(dāng)聲譽推理能力較低且聲譽參數(shù)同時較高時,抑制合作效果最顯著。因為背叛者可以很快的積累高聲譽,從而導(dǎo)致背叛策略的傳播。(這些內(nèi)容我在之間的博弈總結(jié)中也提到過)
這里埋下一個伏筆,就是在之后的仿真中,確定我的歸一化方式是否正確。
因篇幅問題不能全部顯示,請點此查看更多更全內(nèi)容
Copyright ? 2019- 91gzw.com 版權(quán)所有 湘ICP備2023023988號-2
違法及侵權(quán)請聯(lián)系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com
本站由北京市萬商天勤律師事務(wù)所王興未律師提供法律服務(wù)