一、層次聚類
1、層次聚類的原理及分類
1)層次法(Hierarchical
methods)先計算樣本之間的距離。每次將距離最近的點合并到同一個類。然后,再計算類與類之間的距離,將距離最近的類合并為一個大類。不停的合并,直到合成了一個類。其中類與類的距離的計算方法有:最短距離法,最長距離法,中間距離法,類平均法等。比如最短距離法,將類與類的距離定義為類與類之間樣本的最短距離。
層次聚類算法根據層次分解的順序分為:自下底向上和自上向下,即凝聚的層次聚類算法和分裂的層次聚類算法(agglomerative和divisive),也可以理解為自下而上法(bottom-up)和自上而下法(top-down)。自下而上法就是一開始每個個體(object)都是一個類,然后根據linkage尋找同類,最后形成一個“類”。自上而下法就是反過來,一開始所有個體都屬于一個“類”,然后根據linkage排除異己,最后每個個體都成為一個“類”。這兩種路方法沒有孰優孰劣之分,只是在實際應用的時候要根據數據特點以及你想要的“類”的個數,來考慮是自上而下更快還是自下而上更快。至于根據Linkage判斷“類”的方法就是最短距離法、最長距離法、中間距離法、類平均法等等(其中類平均法往往被認為是最常用也最好用的方法,一方面因為其良好的單調性,另一方面因為其空間擴張/濃縮的程度適中)。為彌補分解與合并的不足,層次合并經常要與其它聚類方法相結合,如循環定位。
2)Hierarchical
methods中比較新的算法有BIRCH(Balanced
Iterative
Reducing
and
Clustering
Using
Hierarchies利用層次方法的平衡迭代規約和聚類)主要是在數據量很大的時候使用,而且數據類型是numerical。首先利用樹的結構對對象集進行劃分,然后再利用其它聚類方法對這些聚類進行優化;ROCK(A
Hierarchical
Clustering
Algorithm
for
Categorical
Attributes)主要用在categorical的數據類型上;Chameleon(A
Hierarchical
Clustering
Algorithm
Using
Dynamic
Modeling)里用到的linkage是kNN(k-nearest-neighbor)算法,并以此構建一個graph,Chameleon的聚類效果被認為非常強大,比BIRCH好用,但運算復雜度很高,O(n^2)。
2、層次聚類的流程
凝聚型層次聚類的策略是先將每個對象作為一個簇,然后合并這些原子簇為越來越大的簇,直到所有對象都在一個簇中,或者某個終結條件被滿足。絕大多數層次聚類屬于凝聚型層次聚類,它們只是在簇間相似度的定義上有所不同。
這里給出采用最小距離的凝聚層次聚類算法流程:
(1)
將每個對象看作一類,計算兩兩之間的最小距離;
(2)
將距離最小的兩個類合并成一個新類;
(3)
重新計算新類與所有類之間的距離;
(4)
重復(2)、(3),直到所有類最后合并成一類。
聚類的效果如下圖,黑色是噪音點:
另外我們可以看出凝聚的層次聚類并沒有類似基本K均值的全局目標函數,沒有局部極小問題或是很難選擇初始點的問題。合并的操作往往是最終的,一旦合并兩個簇之后就不會撤銷。當然其計算存儲的代價是昂貴的。
3、層次聚類的優缺點
優點:1,距離和規則的相似度容易定義,限制少;2,不需要預先制定聚類數;3,可以發現類的層次關系;4,可以聚類成其它形狀
缺點:1,計算復雜度太高;2,奇異值也能產生很大影響;3,算法很可能聚類成鏈狀
r語言中使用hclust(d,method
=
“complete“,members=NULL)
:進行層次聚類。d為距離矩陣;method表示類的合并方法,single最短距離法,complete最長距離法,median中間距離法,mcquitty
相似法,average
類平均法,centroid重心法,ward離差平方和法;members為NULL或d長度的矢量。
二、劃分聚類法k-means
基于劃分的方法(Partition-based
methods):其原理簡單來說就是,想象你有一堆散點需要聚類,想要的聚類效果就是“類內的點都足夠近,類間的點都足夠遠”。首先你要確定這堆散點最后聚成幾類,然后挑選幾個點作為初始中心點,再然后依據預先定好的啟發式算法(heuristic
algorithms)給數據點做迭代重置(iterative
relocation),直到最后到達“類內的點都足夠近,類間的點都足夠遠”的目標效果。
Partition-based
methods聚類多適用于中等體量的數據集,但我們也不知道“中等”到底有多“中”,所以不妨理解成,數據集越大,越有可能陷入局部最小。
1、Kmeans算法的原理
k-means算法以k為參數,把n個對象分成k個簇,使簇內具有較高的相似度,而簇間的相似度較低。k-means算法的處理過程如下:首先,隨機地選擇k個對象,每個對象初始地代表了一個簇的平均值或中心,即選擇K個初始質心;對剩余的每個對象,根據其與各簇中心的距離,將它賦給最近的簇;然后重新計算每個簇的平均值。
這個過程不斷重復,直到準則函數收斂,直到質心不發生明顯的變化。通常,采用平方誤差準則,誤差的平方和SSE作為全局的目標函數,即最小化每個點到最近質心的歐幾里得距離的平方和。此時,簇的質心就是該簇內所有數據點的平均值。
選擇K個點作為初始質心
repeat
將每個點指派到最近的質心,形成K個簇
重新計算每個簇的質心
until
簇不發生變化或達到最大迭代次數
時間復雜度:O(tKmn),其中,t為迭代次數,K為簇的數目,m為記錄數,n為維數
空間復雜度:O((m+K)n),其中,K為簇的數目,m為記錄數,n為維數
K-Means
算法的詳細過程
從上圖中,我們可以看到,A,B,C,D,E
是五個在圖中點。而灰色的點是我們的種子點,也就是我們用來找點群的點。有兩個種子點,所以K=2。
然后,K-Means的算法如下:
①隨機在圖中取K(這里K=2)個種子點。
②然后對圖中的所有點求到這K個種子點的距離,假如點Pi離種子點Si最近,那么Pi屬于Si點群。(我們可以看到A,B屬于上面的種子點,C,D,E屬于下面中部的種子點)
③接下來,我們要移動種子點到屬于他的“點群”的中心。(見圖上的第三步)
④然后重復第2)和第3)步,直到,種子點沒有移動(我們可以看到圖中的第四步上面的種子點聚合了A,B,C,下面的種子點聚合了D,E)。
聚類的效果如下圖,折線是歷次循環時3個簇的質心的更新軌跡,黑點是初始質心:
我們查看基本K均值算法實現步驟及上面的聚類效果可以發現,該聚類算法將所有數據點都進行了指派,不識別噪音點。另外選擇適當的初試質心是基本K均值過程的關鍵。
2、k均值的優缺點及分類
優點:1,簡單,易于理解和實現;2,時間復雜度低
缺點:
1)kmeans要手工輸入類數目,對初始值的設置很敏感;所以有了k-means++、intelligent
k-means、genetic
k-means;
2)k-means對噪聲和離群值非常敏感,所以有了k-medoids和k-medians;
3)k-means只用于numerical類型數據,不適用于categorical類型數據,所以k-modes;
4)k-means不能解決非凸(non-conve*)數據,所以有了kernel
k-means。
5)k-means主要發現圓形或者球形簇,不能識別非球形的簇。
3、k-means與DBSCAN的區別
k-means聚類算法的初始點選擇不穩定,是隨機選取的,這就引起聚類結果的不穩定。k-means屬于動態聚類,往往聚出來的類有點圓形或者橢圓形。kmeans對于圓形區域聚類效果較好,dbscan基于密度,對于集中區域效果較好。對于不規則形狀,kmeans完全無法用,dbscan可以起到很好的效果。
4、k-means注意問題
1)K如何確定
kmenas算法首先選擇K個初始質心,其中K是用戶指定的參數,即所期望的簇的個數。這樣做的前提是我們已經知道數據集中包含多少個簇,但很多情況下,我們并不知道數據的分布情況,實際上聚類就是我們發現數據分布的一種手段。如何有效的確定K值,這里大致提供幾種方法:
①與層次聚類結合[2]
經常會產生較好的聚類結果的一個有趣策略是,首先采用層次凝聚算法決定結果粗的數目,并找到一個初始聚類,然后用迭代重定位來改進該聚類。
②穩定性方法[3]
穩定性方法對一個數據集進行2次重采樣產生2個數據子集,再用相同的聚類算法對2個數據子集進行聚類,產生2個具有k個聚類的聚類結果,計算2個聚類結果的相似度的分布情況。2個聚類結果具有高的相似度說明k個聚類反映了穩定的聚類結構,其相似度可以用來估計聚類個數。采用次方法試探多個k,找到合適的k值。
③系統演化方法[3]
系統演化方法將一個數據集視為偽熱力學系統,當數據集被劃分為K個聚類時稱系統處于狀態K。系統由初始狀態K=1出發,經過分裂過程和合并過程,系統將演化到它的穩定平衡狀態Ki,所對應的聚類結構決定了最優類數Ki。系統演化方法能提供關于所有聚類之間的相對邊界距離或可分程度,適用于明顯分離的聚類結構和輕微重疊的聚類結構。
④使用canopy算法進行初始劃分[4]
基于Canopy
Method的聚類算法將聚類過程分為兩個階段
Stage1、聚類最耗費計算的地方是計算對象相似性的時候,Canopy
Method在第一階段選擇簡單、計算代價較低的方法計算對象相似性,將相似的對象放在一個子集中,這個子集被叫做Canopy
,通過一系列計算得到若干Canopy,Canopy之間可以是重疊的,但不會存在某個對象不屬于任何Canopy的情況,可以把這一階段看做數據預處理;
Stage2、在各個Canopy
內使用傳統的聚類方法(如K-means),不屬于同一Canopy
的對象之間不進行相似性計算。
從這個方法起碼可以看出兩點好處:首先,Canopy
不要太大且Canopy
之間重疊的不要太多的話會大大減少后續需要計算相似性的對象的個數;其次,類似于K-means這樣的聚類方法是需要人為指出K的值的,通過Stage1得到的Canopy
個數完全可以作為這個K值,一定程度上減少了選擇K的盲目性。
其他方法如貝葉斯信息準則方法(BIC)可參看文獻[5]。
2)初始質心的選取
選擇適當的初始質心是基本kmeans算法的關鍵步驟。常見的方法是隨機的選取初始質心,但是這樣簇的質量常常很差。處理選取初始質心問題的一種常用技術是:多次運行,每次使用一組不同的隨機初始質心,然后選取具有最小SSE(誤差的平方和)的簇集。這種策略簡單,但是效果可能不好,這取決于數據集和尋找的簇的個數。
第二種有效的方法是,取一個樣本,并使用層次聚類技術對它聚類。從層次聚類中提取K個簇,并用這些簇的質心作為初始質心。該方法通常很有效,但僅對下列情況有效:(1)樣本相對較小,例如數百到數千(層次聚類開銷較大);(2)K相對于樣本大小較小
第三種選擇初始質心的方法,隨機地選擇第一個點,或取所有點的質心作為第一個點。然后,對于每個后繼初始質心,選擇離已經選取過的初始質心最遠的點。使用這種方法,確保了選擇的初始質心不僅是隨機的,而且是散開的。但是,這種方法可能選中離群點。此外,求離當前初始質心集最遠的點開銷也非常大。為了克服這個問題,通常該方法用于點樣本。由于離群點很少(多了就不是離群點了),它們多半不會在隨機樣本中出現。計算量也大幅減少。
第四種方法就是上面提到的canopy算法。
3)距離的度量
常用的距離度量方法包括:歐幾里得距離和余弦相似度。兩者都是評定個體間差異的大小的。歐幾里得距離度量會受指標不同單位刻度的影響,所以一般需要先進行標準化,同時距離越大,個體間差異越大;空間向量余弦夾角的相似度度量不會受指標刻度的影響,余弦值落于區間[-1,1],值越大,差異越小。但是針對具體應用,什么情況下使用歐氏距離,什么情況下使用余弦相似度?
從幾何意義上來說,n維向量空間的一條線段作為底邊和原點組成的三角形,其頂角大小是不確定的。也就是說對于兩條空間向量,即使兩點距離一定,他們的夾角余弦值也可以隨意變化。感性的認識,當兩用戶評分趨勢一致時,但是評分值差距很大,余弦相似度傾向給出更優解。舉個極端的例子,兩用戶只對兩件商品評分,向量分別為(3,3)和(5,5),這兩位用戶的認知其實是一樣的,但是歐式距離給出的解顯然沒有余弦值合理。
4)質心的計算
對于距離度量不管是采用歐式距離還是采用余弦相似度,簇的質心都是其均值,即向量各維取平均即可。
5)算法停止條件
一般是目標函數達到最優或者達到最大的迭代次數即可終止。對于不同的距離度量,目標函數往往不同。當采用歐式距離時,目標函數一般為最小化對象到其簇質心的距離的平方和。
當采用余弦相似度時,目標函數一般為最大化對象到其簇質心的余弦相似度和。
6)空聚類的處理
如果所有的點在指派步驟都未分配到某個簇,就會得到空簇。如果這種情況發生,則需要某種策略來選擇一個替補質心,否則的話,平方誤差將會偏大。一種方法是選擇一個距離當前任何質心最遠的點。這將消除當前對總平方誤差影響最大的點。另一種方法是從具有最大SSE的簇中選擇一個替補的質心。這將分裂簇并降低聚類的總SSE。如果有多個空簇,則該過程重復多次。另外,編程實現時,要注意空簇可能導致的程序bug。
三、基于密度的聚類
基于密度的方法(Density-based
methods):k-means解決不了不規則形狀的聚類。于是就有了Density-based
methods來系統解決這個問題。該方法同時也對噪聲數據的處理比較好?;诿芏染垲惖乃枷耄核悸肪褪嵌ㄒ粋€距離半徑,最少有多少個點,然后把可以到達的點都連起來,判定為同類。其原理簡單說畫圈兒,其中要定義兩個參數,一個是圈兒的最大半徑,一個是一個圈兒里最少應容納幾個點。最后在一個圈里的,就是一個類。DBSCAN(Density-Based
Spatial
Clustering
of
Applications
with
Noise)就是其中的典型,可惜參數設置也是個問題,對這兩個參數的設置非常敏感。DBSCAN的擴展叫OPTICS(Ordering
Points
To
Identify
Clustering
Structure)通過優先對高密度(high
density)進行搜索,然后根據高密度的特點設置參數,改善了DBSCAN的不足。
1、DBSCAN的概念
dbscan基于密度,對于集中區域效果較好,為了發現任意形狀的簇,這類方法將簇看做是數據空間中被低密度區域分割開的稠密對象區域;一種基于高密度連通區域的基于密度的聚類方法,該算法將具有足夠高密度的區域劃分為簇,并在具有噪聲的空間數據中發現任意形狀的簇。
DBSCAN中的幾個定義:
Ε鄰域:給定對象半徑為Ε內的區域稱為該對象的Ε鄰域;
核心對象:如果給定對象Ε領域內的樣本點數大于等于MinPts,則稱該對象為核心對象;
直接密度可達:對于樣本集合D,如果樣本點q在p的Ε領域內,并且p為核心對象,那么對象q從對象p直接密度可達。
密度可達:對于樣本集合D,給定一串樣本點p1,p2….pn,p=
p1,q=
pn,假如對象pi從pi-1直接密度可達,那么對象q從對象p密度可達。注意:密度可達是單向的,密度可達即可容納同一類。
密度相連:存在樣本集合D中的一點o,如果對象o到對象p和對象q都是密度可達的,那么p和q密度相聯。
密度可達是直接密度可達的傳遞閉包,并且這種關系是非對稱的。密度相連是對稱關系。DBSCAN目的是找到密度相連對象的最大集合。
有了以上的概念接下來就是算法描述了:DBSCAN通過檢查數據庫中每點的r鄰域來搜索簇。如果點p的r鄰域包含的點多于MinPts個,則創建一個以p為核心對象的新簇。然后,DBSCAN迭代的聚集從這些核心對象直接密度可達的對象,這個過程可能涉及一些密度可達簇的合并。當沒有新的點可以添加到任何簇時,該過程結束。
例如:Eg:
假設半徑Ε=3,MinPts=3,點p的E領域中有點{m,p,p1,p2,o},點m的E領域中有點{m,q,p,m1,m2},點q的E領域中有點{q,m},點o的E領域中有點{o,p,s},點s的E領域中有點{o,s,s1}.
那么核心對象有p,m,o,s(q不是核心對象,因為它對應的E領域中點數量等于2,小于MinPts=3);
點m從點p直接密度可達,因為m在p的E領域內,并且p為核心對象;
點q從點p密度可達,因為點q從點m直接密度可達,并且點m從點p直接密度可達;
點q到點s密度相連,因為點q從點p密度可達,并且s從點p密度可達。
2、簇的生成原理及過程
1)DBSCAN聚類算法原理的基本要點:確定半徑eps的值
①DBSCAN算法需要選擇一種距離度量,對于待聚類的數據集中,任意兩個點之間的距離,反映了點之間的密度,說明了點與點是否能夠聚到同一類中。由于DBSCAN算法對高維數據定義密度很困難,所以對于二維空間中的點,可以使用歐幾里德距離來進行度量。
②DBSCAN算法需要用戶輸入2個參數:一個參數是半徑(Eps),表示以給定點P為中心的圓形鄰域的范圍;另一個參數是以點P為中心的鄰域內最少點的數量(MinPts)。如果滿足:以點P為中心、半徑為Eps的鄰域內的點的個數不少于MinPts,則稱點P為核心點。
③DBSCAN聚類使用到一個k-距離的概念,k-距離是指:給定數據集P={p(i);
i=0,1,…n},對于任意點P(i),計算點P(i)到集合D的子集S={p(1),p(2),…,p(i-1),p(i+1),…,p(n)}中所有點之間的距離,距離按照從小到大的順序排序,假設排序后的距離集合為D={d(1),d(2),…,d(k-1),d(k),d(k+1),…,d(n)},則d(k)就被稱為k-距離。也就是說,k-距離是點p(i)到所有點(除了p(i)點)之間距離第k近的距離。對待聚類集合中每個點p(i)都計算k-距離,最后得到所有點的k-距離集合E={e(1),e(2),…,e(n)}。
④根據經驗計算半徑Eps:根據得到的所有點的k-距離集合E,對集合E進行升序排序后得到k-距離集合E’,需要擬合一條排序后的E’集合中k-距離的變化曲線圖,然后繪出曲線,通過觀察,將急劇發生變化的位置所對應的k-距離的值,確定為半徑Eps的值。
⑤根據經驗計算最少點的數量MinPts:確定MinPts的大小,實際上也是確定k-距離中k的值,DBSCAN算法取k=4,則MinPts=4。
⑥另外,如果覺得經驗值聚類的結果不滿意,可以適當調整Eps和MinPts的值,經過多次迭代計算對比,選擇最合適的參數值??梢钥闯?,如果MinPts不變,Eps取得值過大,會導致大多數點都聚到同一個簇中,Eps過小,會導致一個簇的分裂;如果Eps不變,MinPts的值取得過大,會導致同一個簇中點被標記為噪聲點,MinPts過小,會導致發現大量的核心點。
我們需要知道的是,DBSCAN算法,需要輸入2個參數,這兩個參數的計算都來自經驗知識。半徑Eps的計算依賴于計算k-距離,DBSCAN取k=4,也就是設置MinPts=4,然后需要根據k-距離曲線,根據經驗觀察找到合適的半徑Eps的值。
2)連通核心點生成簇
核心點能夠連通(有些書籍中稱為:“密度可達”),它們構成的以Eps長度為半徑的圓形鄰域相互連接或重疊,這些連通的核心點及其所處的鄰域內的全部點構成一個簇。假設MinPts=4,則連通的核心點示例,如下圖所示:
計算連通的核心點的思路是,基于廣度遍歷與深度遍歷集合的方式:從核心點集合S中取出一個點p,計算點p與S集合中每個點(除了p點)是否連通,可能會得到一個連通核心點的集合C1,然后從集合S中刪除點p和C1集合中的點,得到核心點集合S1;再從S1中取出一個點p1,計算p1與核心點集合S1集中每個點(除了p1點)是否連通,可能得到一個連通核心點集合C2,再從集合S1中刪除點p1和C2集合中所有點,得到核心點集合S2,……最后得到p、p1、p2、……,以及C1、C2、……就構成一個簇的核心點。最終將核心點集合S中的點都遍歷完成,得到所有的簇。
參數eps的設置,如果eps設置過大,則所有的點都會歸為一個簇,如果設置過小,那么簇的數目會過多。如果MinPts設置過大的話,很多點將被視為噪聲點。
3、根據數據點的密度分為三類點:
(1)核心點:該點在鄰域內的密度超過給定的閥值MinPs。
(2)邊界點:該點不是核心點,但是其鄰域內包含至少一個核心點。
(3)噪音點:不是核心點,也不是邊界點。
有了以上對數據點的劃分,聚合可以這樣進行:各個核心點與其鄰域內的所有核心點放在同一個簇中,把邊界點跟其鄰域內的某個核心點放在同一個簇中。
聚類的效果如下圖,黑色是噪音點:初識聚類算法:
因為DBSCAN使用簇的基于密度的定義,因此它是相對抗噪音的,并且能處理任意形狀和大小的簇。但是如果簇的密度變化很大,例如ABCD四個簇,AB的密度大大大于CD,而且AB附近噪音的密度與簇CD的密度相當,這是當MinPs較大時,無法識別簇CD,簇CD和AB附近的噪音都被認為是噪音;當MinPs較小時,能識別簇CD,但AB跟其周圍的噪音被識別為一個簇。這個問題可以基于共享最近鄰(SNN)的聚類結局。
4、DBSCAN的優缺點:
優點:
1.
與K-means方法相比,DBSCAN不需要事先知道要形成的簇類的數量。
2.
與K-means方法相比,DBSCAN可以發現任意形狀的簇類。
3.
同時,DBSCAN能夠識別出噪聲點。
4.DBSCAN對于數據庫中樣本的順序不敏感,即Pattern的輸入順序對結果的影響不大。但是,對于處于簇類之間邊界樣本,可能會根據哪個簇類優先被探測到而其歸屬有所擺動。
缺點:
1.
DBScan不能很好反映高尺寸數據。
2.
DBScan不能很好反映數據集變化的密度。
3.對于高維數據,點之間極為稀疏,密度就很難定義了。
9
篇2:銅排載流量計算法
銅排載流量計算法
簡易記住任何規格的矩形母排的載流量 b",<G*'h+
矩形母線載流量: k2 & (- @
40℃時銅排載流量=排寬*厚度系數 N* Ik O
排寬(mm);厚度系數為:母排12厚時為20;10厚時為18;依次為: ;qpz;Eiha
[12-20,10-18,8-16,6-14,5-13,4-12] . , rgIu*
雙層銅排[40℃]=1.56-1.58單層銅排[40℃](根據截面大小定) ,f )"/ G`7
3層銅排[40℃]=2單層銅排[40℃] `'zI~axt^=
4層銅排[40℃]=單層銅排[40℃]*2.45(不推薦此類選擇,最好用異形母排替代) )cQm ^*
銅排[40℃]= 銅排[25℃]*0.85 h&G/ 35_f
鋁排[40℃]= 銅排[40℃]/1.3 8pq:' b<S
例如求TMY100*10載流量為: px*> fz2!
單層:100*18=1800(A)〔查手冊為1860A〕; 1y *7BQ={
雙層:2(TMY100*10)的載流量為: 1nq $%pU M
1800*1.58=2940(A);〔查手冊為2942A〕; =%// D '
三層:3(TMY100*10)的載流量為: DrB"we+?
1860*2=3720(A)〔查手冊為3780A〕 /d. GW9FV
以上所有計算均精確到與手冊數據相當接近。
銅排的載流量表
一、矩形銅排
銅母排截面25℃ 35℃
平放(A) 豎放(A) 平放(A) 豎放(A)
15×3 176 185
20×3 233 245
25×3 285 300
30×4 394 415
40×4 404 425 522 550
40×5 452 475 551 588
50×5 556 585 721 760
50×6 617 650 797 840
60×6 731 770 940 990
60×8 858 900 1101 1160
60×10 960 1010 1230 1295
80×6 930 1010 1195 1300
80×8 1060 1155 1361 1480
80×10 1190 1295 1531 1665
100×6 1160 1260 1557 1592
100×8 1310 1425 1674 1850
100×10 1470 1595 1865 2025
120×8 1530 1675 1940 2110
120×10 1685 1830 2152 2340
2(60×6) 1126 1185 1452 1530
2 (60×8) 1460 1480 1503 1600
2(60×10) 1680 1170 2140 2250
2(80×6) 1320 1433 1705 1855
2(80×8) 1651 1795 2117 2515
2(80×10) 1950 2120 2575 2735
2(100×6) 1564 1700 2000 2170
2(100×8) 1930 2100 2470 2690
2(100×10) 2320 2500 2935 3185
2(120×8) 2140 2330 2750 2995
2(120×10) 2615 2840 3330 3620
二、銅導線載流量(35℃)
截面(mm?)1 1.5 2.5 4 6 10 16 25 35 50 70 95
載流量(A)10 13 17 23 30 45 85 110 136 170 216 263
三、抽屜柜抽屜導線選用標準
截面(mm?)10 16 16 25 35 50 70 35×2 50×2 70×2 50×3 70×3
電 流(A) 50 63 80 100 125 160 200 250 300 400 500 60
篇3:商鋪投資收益率四種算法
商鋪投資收益率四種算法
目前,投資商鋪的熱潮急劇升溫,那么商鋪投資收益率怎么計算呢?據工作人員介紹,商鋪投資收益率算法有以下幾種:
1.租金回報率法
公式:(稅后月租金-按揭月供款)×12/(首期房款+期房時間內的按揭款)。優點:考慮了租金、價格和前期主要投入,比租金回報率分析法適用范圍廣,可估算資金回收期長短。
不足:未考慮前期的其他投入、資金的時間效應。不能解決多套投資的現金分析問題。且由于其固有的片面性,不能作為理想的投資分析工具。
2.租金回報率分析法
公式:(稅后月租金-每月物業管理費)×12/購買房屋總價,這種方法算出的比值越大,就表明越值得投資。
優點:考慮了租金、房價及兩種因素的相對關系,是選擇“績優地產”的簡捷方法。
不足:沒有考慮全部的投入與產出,沒有考慮資金的時間成本,因此不能作為投資分析的全面依據。對按揭付款不能提供具體的分析。
3.內部收益率法
房產投資公式為:累計總收益/累計總投入=月租金×投資期內的累計出租月數/(按揭首期房款+保險費+契稅+大修基金+家具等其他投入+累計按揭款+累計物業管理費)=內部收益率。
上述公式以按揭為例;未考慮付息、未考慮中介費支出;累計收益、投入均考慮在投資期范圍內。
優點:內部收益率法考慮了投資期內的所有投入與收益、現金流等各方面因素??梢耘c租金回報率結合使用。內部收益率可理解為存銀行,只不過我國銀行利率按單利計算,而內部收益率則是按復利計算。
不足:通過計算內部收益率判斷物業的投資價值都是以今天的數據為依據推斷未來,而未來租金的漲跌是個未知數。
4.簡易國際評估法
基本公式為:如果該物業的年收益×15年=房產購買價,則認為該物業物有所值。這一國際上專業的理財公司評估一處物業的投資價值的簡單方法。
任何物業投資,投資者都希望能有一個合理的回報,甚至是一個理想的回報,正所謂:虧本生意沒人做。投資者若要評判自己的投資是否有價值,他們通常主要是看該物業的投資回報率,那么,如何計算投資回報率,如何判斷投資回報率所包含的意義呢?
如何計算投資回報率
有行內人告訴我們這樣一個計算投資回報率的計算公式:
計算購入再出租的投資回報率=月租金×12(個月)/售價
計算購入再售出的投資回報率=(售出價-購入價)/購入價
例如,有一臨街商鋪,面積約50平方米,售價約200萬元,目前在這個物業的周邊,同等物業的月租金約是400元/平方米,即:這個商鋪要是買下并成功出租,新業主將有可能獲得2萬元的月租金。那么,它的投資回報率將是多少呢?現在讓我們計算一下:
套用上述計算公式:這個物業的投資回報率=2萬元×12/200萬元,通過計算,我們得出這套物業的投資回報率將是:12%
要是這個投資者轉手放出,并以215萬元成交,那么它的投資回報率=(215-200)/200,通過計算,我們得出這套物業的投資回報率將是:7.5%
如何判斷投資回報率
現在,投資回報率計算出來了,那么,我們該如何判斷這些數值所包含的意義呢?也就是說,哪個數值是表示合理利潤?哪個數值是表示千萬不要沾手?哪個數值是表示它的收益非常好?或者是哪個數值是屬于對方開出的條件太好,自己要審慎考慮才行?
業內人士認為,解讀這些數值在行內并非有一個標準答案,可能10個人就會有10個答案。但據本報從一些地產從業人員和投資客手中回收的數據顯示,其實這些答案相差無幾,差的也只是小數點以后的數值。
據經緯物業二手部的負責人司徒佩琪介紹:其實不同物業的理想投資回報率不盡相同,比如就拿我們在“透視商機特刊”中曾經探討過的商住兩用物業、爛尾番生物業、地鐵物業及名校物業來說,它們的合理利潤、投資臨界點和超高利潤率將大致如下表所列:
物業類別合理回報率&n
bsp;投資臨界點超高回報率(需審慎)商住兩用物業10-12%>7%15%以上
爛尾番生物業9-10%>6%20%以上
地鐵物業3-6%>3%10%以上