針對中小企業提供bs軟件定制服務,包括但不限于進銷存、基礎財務、業務管理、協同辦公等,只有想不到,沒有做不到,歡迎咨詢洽談!
My records, experience and ideas.
做seo時刻離不開日志分析,但是每次都去服務器上下載,再用一些iis日志分析軟件去操作實在費勁!更何況很多iis日志分析程序并不是我想要的效果……于是就有了這一版php集成的iis日志程序。
數據量太大導出超級慢,用LOAD DATA快速導入mysql數據。
批量讀取本地的txt文件,并將標題、內容寫入mysql中,基本思路就是遍歷文件夾文件,讀取,寫入……其中主要的問題是轉碼,要不就會出現讀取不到數據或亂碼的情況。
服務器cpu高占用是常見的一種服務器問題,基本思路是服務器環境配置>sql語句,一步步排除。
圖片在網頁中是必不可少的組成部分,大多數情況下我們都是需要縮略圖的,而有的時候對于縮略圖的尺寸還有不同的要求——多個模塊需要不同尺寸比例的縮略圖,這時你可能就需要根據參數自動生成縮略圖。
注意,是刪除標簽之外的所有空格,之前在采集內容的時候把標簽屬性這玩意給忘了,整的我都白采了……
本程序處理那些在文章中存在圖片引用,而圖片已經不存在(被刪除)的情況。
如題。網站程序本身的不完善,導致網站運行時間越久垃圾文件就越多,人為去處理那些垃圾文件是不現實的,還好php能幫我們搞定。
php利用split或mb_split將一篇文章按指定字符(標點符號)分割成多個句子的方法。
采集數據,得到的內容往往很糟糕,需要處理后在輸出,既滿足用戶體驗又提高代碼的相應速度,還能減小數據庫的占用,一舉多得!而處理這些亂七八糟的數據,正則替換就必不可少。本文講述的是php正則清除src屬性外的所有html標簽屬性!
采集了好多數據,直接用免費的火車頭來弄的,因為免費版無法直接導出導入,所以用sqlite來進行中間處理,結果發現有時某項內容不論導出什么格式都會出現亂碼,而在sqlite中查閱時卻沒有任何問題……
在寫程序的時候很難避免重復執行相同或相似的代碼,用thinkphp同樣會有重復代碼,對于這些多次重復使用的程序,thinkphp有內置的辦法,也有我們手動創建的方法來精簡。
做一個b2b,想要一些特別的排序方法,于是找了些資料,結合自己的情況修改而來。
上午批量處理關鍵詞(有數據庫讀寫操作)時意外斷電,來電后繼續執行程序卻出現錯誤:Table xxx is marked as crashed and should be repaired。
無需寫任何采集規則,自動采集整站圖片,可以是圖片地址,也可以直接下載保存。
采集本身不難,但因html的不規范,每個人寫的代碼都不相同,所以需要寫各種各樣不同的規則,這就讓采集顯得很是繁瑣。本文提供一種一鍵采集的思路,其實還有幾種不同的做法,下次有時間再來分享。
采集百度圖片,用了火車頭,不知道怎么制定ajax頁面,最終只好自己寫了一個,原理很簡單,重點就是找到ajax頁面,而這個很簡單,打開百度圖片,搜索關鍵詞,進控制臺,切換到網絡模塊,查找即可。
采集的文章會有很多不可控的內容,如果量太大,手動替換就顯得很不現實,本代碼采用php的preg_replace函數,用正則批量自動替換文章中的電話、網址等內容。
今個在群里有朋友問到:在html后綴后面,隨便加數字,網頁還可以正常打開,比如http://www.kredytypozyczki.net/mysql/blog-1043.html,在后面加數字或其他內容,如blog-1043.html123,blog-104.htmlxxx,這種是錯誤,為啥不提示錯誤呢?
還是之前的問題,我需要計算tf-idf,目前有詞匯28萬余條,語料87萬余條,web端查詢效率太低,于是想著在mysql存儲過程中進行。
這兩天一直在鼓搗tf-idf的問題,在計算其值的時候發現效率太低(我用的like模糊查詢),于是想換成match against進行全文檢索,結果測試才發現這里有坑(之前都沒怎么用過match against)。
一直在偽,前幾天發現手底下的所有站索引都在降,更有部分純采集的站,掉的十分厲害,于是還是想著要創作一下,就有了這一篇利用tf-idf進行偽原創的實操。
update 表 set `字段`=replace(`字段`,'需要替換的內容','替換成的內容')。
定時自動發布,顧名思義就是讓程序去執行,每隔x時間就發布n條網站內容,這一點對于網站優化來說是非常有必要的,它能讓蜘蛛形成習慣,給搜索引擎營造一個良好的形象。
現在做網站早就離不開手機端了,幾乎90%以上的網站都有手機端,甚至部分網站 只提供手機端頁面。對于那些既包含電腦端又包含手機端的網站,應該怎么去判斷并給予用戶適合他的訪問頁面呢?
類目組合——其實我不知道業內怎么叫的,這是我個人的叫法……不過很好理解,就是多個類目兩兩組合形成大量數據。
做seo必定會涉及內鏈建設,而對于網站框架來說,其內鏈結構在程序寫好之后就已經確定了,我們要做的只能是文章內容的內鏈。對于文章內鏈來說,最好的方式還是手動創建,這樣可以保證真正的相關并且確實存在推薦意義,但事實上,因為工作量或計劃等問題,人工創建內鏈其效率過于低下,所以就有了自動內鏈這一方法。
update gk_article set cont=left(cont,locate('相關推薦',cont)+2) where cont like '%相關推薦%';
ThinkPHP一個項目連接多個數據庫,M('Cont','','mysql://caiji:123456@localhost/caiji#utf8');$data=$db->select();
file_get_contents無法抓取https協議的內容,在php.ini中開啟php_openssl.dll即可。