來源:智優(yōu)營家 發(fā)布日期:2018-10-31 關(guān)注:2136
在SEO學(xué)習(xí)當(dāng)中我們會遇到很多代碼或者其他的命令工具,今天就為大家分享一下我對SEO中的robots和htaccess的理解,希望能對大家有個初步的理解,對于一個網(wǎng)站而言,要想做好SEO優(yōu)化有四樣必須做的:robots,301,404,sitemap,可見robots的重要性。
一、robots文件的作用與用途是什么
Robots.txt是網(wǎng)站通過Robots協(xié)議告訴蜘蛛可以抓取哪些頁面,哪些頁面不能抓取。而不是作為搜索引擎之間互相限制和不正當(dāng)競爭的工具。robots文件就是一個擴展名為txt的文本文檔,它必須放置在網(wǎng)站的根目錄下面。
robots文件的格式是怎樣?robots文件全名是:robots.txt。通常以一行或多行User-agent開始,后面加上若干Disallow行,如例:禁止所有搜索引擎訪問網(wǎng)站的任何部分
User-agent:*
Disallow:/
其中*代表的所有的搜索引擎種類,而Disallow:/后面是在文目錄下的,當(dāng)然了還有allow的。Sitemap也是很重要的,很多網(wǎng)站在robots.txt中提供SiteMap文件鏈接地址,這樣能更加直白準(zhǔn)確的讓搜索引起抓取內(nèi)容。還有,如果我們網(wǎng)站有比較大的文件,視頻的話也可以用到robots,可見它的用途是很大的。
二、htaccess文件的用途由是什么
htaccess文件是提供了針對目錄改變配置的方法,主要可以實現(xiàn)網(wǎng)頁301重定向、自定義404錯誤頁面、改變文件擴展名、允許/阻止特定的用戶或者目錄的訪問、禁止目錄列表、配置默認(rèn)文檔等功能。而SEO常用的是301重定向和404錯誤頁面。301重定向的htaccess是這樣的格式的:在linux空間下,http://baidu.com/跳轉(zhuǎn)到http://www.baidu.com/修改.htaccess文件方法如下:
RewriteEngineOnRewriteCond%{HTTP_HOST}!^baidu.com/$[NC]RewriteRule^(.*)$?http://www.baidu.com/$1[L,R=301]然后把這個文件放在網(wǎng)站的根目錄下。
在SEO優(yōu)化中,robots文件和htaccess文件都有它的重要性,我們不能一味的只在網(wǎng)頁的內(nèi)部做優(yōu)化,所以SEO優(yōu)化并不是一個很有講究的學(xué)問。今天就為大家分享的怎么理解SEO中robots文件和htaccess文件就到這里為止了,如果還是沒有得到解決,歡迎到智優(yōu)營家了解更多詳情。
熱門推薦
熱門標(biāo)簽
關(guān)注智優(yōu)