DeepSeek本地部署教程
前言
DeepSeek作为一款表现出色的国内大语言模型,在自然语言处理、代码生成以及多轮对话等任务中展现出卓越的能力,吸引了众多开发者和研究者的关注。然而,在日常使用时,服务器繁忙导致的卡顿问题屡见不鲜。将DeepSeek部署到本地服务器,不仅能有效解决这一难题,还能通过域名访问,极大地提升使用便捷性。接下来,为大家呈上一份超详细、超易懂的小白版部署教程。
一、部署前准备
(一)服务器硬件要求
- CPU:作为服务器的核心组件,CPU相当于人的大脑,承担着处理各种任务的重任。至少需要配备4核心的CPU,若能拥有8核心及以上,则能显著提升多任务处理能力,让模型运行更加流畅高效。比如在进行复杂文本生成或多用户同时访问时,多核心CPU可以并行处理任务,大大缩短响应时间。
- 内存:内存是服务器临时存储数据的区域,类似于我们日常使用的书包。至少需要16GB的内存容量,若能达到32GB及以上,服务器就能在运行模型时更快速地读取和存储数据,避免因内存不足导致的运行缓慢甚至卡顿现象。例如,当模型处理大量文本数据时,充足的内存可确保数据的快速调用,提高生成效率。
- 硬盘:硬盘用于长期存储数据,就像家中的大仓库。至少要保证有200GB的空闲空间,并且强烈推荐使用SSD固态硬盘。SSD的读写速度极快,相较于传统机械硬盘,能极大地缩短模型加载时间,为用户节省等待时间。以加载大型模型文件为例,SSD可能只需几秒钟,而机械硬盘则可能需要数分钟。
- 显卡:若期望模型运行速度快且效果好,NVIDIA GPU是理想之选,如RTX 3060及以上型号,并且显存需达到8GB及以上。对于对性能要求极高的场景,像A100、H100等专业级GPU会是更优的选择。显卡性能直接影响模型在处理大规模文本时的速度,高性能显卡能够加速计算过程,使得模型生成文本的速度大幅提升,就如同跑车与普通汽车在速度上的巨大差异。
(二)服务器软件环境
- 操作系统:强烈推荐使用Ubuntu 20.04及以上版本的操作系统。它就像一位稳定可靠的管家,对深度学习框架有着完善的支持,能够确保模型与各种工具之间的协同工作顺畅无阻。在Ubuntu系统中,软件资源丰富,且社区支持强大,便于用户在部署和使用过程中获取帮助。
- CUDA Toolkit:这是NVIDIA GPU加速计算的必备工具,如同为GPU安装了一个“加速器”。在安装之前,务必确认显卡驱动已正确安装。用户可在终端输入
nvidia-smi
命令来查看驱动版本。然后,根据显卡型号和驱动版本,前往NVIDIA官方网站下载对应的CUDA Toolkit安装包。下载时,需仔细核对版本信息,确保安装包与硬件和驱动的兼容性。 - cuDNN库:cuDNN库与CUDA Toolkit搭配使用,能够大幅提升深度学习计算效率,仿佛给“加速器”再次升级。在下载cuDNN库时,必须高度关注版本与CUDA Toolkit的兼容性。不兼容的版本可能导致计算效率低下甚至程序无法运行,就像穿错鞋子会影响跑步速度一样。
- Python环境:需要安装Python 3.8及以上版本,并配置好虚拟环境。虚拟环境类似于一个独立的小房间,能够将不同项目的依赖包隔离开来,方便进行管理。例如,在部署DeepSeek时,虚拟环境可确保其依赖的Python包不会与其他项目的包产生冲突,提高项目的稳定性和可维护性。
(三)软件工具
我们选用LM Studio作为运行大语言模型的工具。它就像一个简单易用的操作面板,专为本地运行大语言模型而设计。LM Studio支持多种开源模型,即使您不具备复杂的代码编写能力,也能轻松加载和运行模型。同时,它还能有效保证数据的隐私和安全,让用户无后顾之忧。
二、服务器环境搭建
(一)安装依赖库
打开服务器的终端,这就如同打开了一个神奇的命令窗口。在其中输入以下命令来安装必要的依赖库:
sudo apt update
sudo apt install -y build-essential python3-dev python3-pip git
sudo apt update
命令用于让服务器检查是否有最新的软件信息,类似于检查是否有新的快递送达。若在执行该命令时遇到网络问题导致更新失败,您可以首先检查网络连接,确认网线是否插好,或者尝试更换软件源。更换软件源的方法是编辑/etc/apt/sources.list
文件,将其中的软件源地址替换为其他可用的源,如国内的镜像源,以提高下载速度和稳定性。在安装过程中,如果提示缺少某些依赖,只需按照提示进行安装即可。例如,若提示缺少xxx
,则输入sudo apt install xxx
进行安装。
(二)安装CUDA Toolkit和cuDNN库
- 打开浏览器,访问NVIDIA官方网站。在网站上,根据自己的显卡型号和驱动版本,仔细筛选并下载对应的CUDA Toolkit安装包。这一步就如同去商场挑选适合自己脚码的鞋子,务必确保选择正确,否则可能影响后续的安装和使用。
下载完成后,返回终端,输入安装命令,例如:
sudo sh cuda_xxx.run
在安装过程中,会出现许多提示信息,就像玩游戏时的新手引导一样。请务必按照提示一步步进行配置。特别需要注意的是,在安装选项中,如果您已经安装了兼容的显卡驱动,请勿勾选再次安装,否则可能引发冲突,导致安装失败或系统出现异常。安装完成后,还需要将CUDA路径添加到系统环境变量中。具体操作是打开
~/.bashrc
文件,可使用nano
编辑器,输入nano ~/.bashrc
,然后在文件末尾添加export PATH=/usr/local/cuda/bin${PATH:+:${PATH}}
和export LD_LIBRARY_PATH=/usr/local/cuda/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
。保存并退出编辑器后,在终端输入source ~/.bashrc
使配置生效。若在配置过程中出现错误,可重新打开文件进行检查和修改。- 安装cuDNN库时,首先需要在NVIDIA官方网站注册一个账号,就像注册游戏账号一样。注册成功后,下载对应版本的cuDNN库压缩包。下载时,务必再次确认版本与CUDA Toolkit的适配性,以确保二者能够协同工作。
下载好压缩包后,在终端输入以下命令解压并复制文件:
sudo cp cudnn-xxx.tgz /usr/local/cuda/ cd /usr/local/cuda/ sudo tar -xzvf cudnn-xxx.tgz
在复制文件时,要确保目标目录
/usr/local/cuda/
存在,并且当前用户具有写入权限。若目录不存在,可使用sudo mkdir -p /usr/local/cuda/
命令创建;若权限不足,可使用sudo chmod -R 777 /usr/local/cuda/
命令赋予权限,但需注意权限设置的安全性。解压完成后,还需修改文件权限,输入sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
,这样其他程序才能正常访问和使用这些文件。
(三)配置Python虚拟环境
在终端输入安装虚拟环境工具的命令:
sudo pip install virtualenv
若在安装过程中出现权限问题,如提示没有权限安装,可尝试使用
sudo -H pip install virtualenv
命令。该命令通过提升权限,使得安装能够顺利进行。创建一个虚拟环境,例如取名为
deepseek_env
,在终端输入:virtualenv -p python3 deepseek_env
在创建过程中,如果提示找不到Python 3的路径,您可以在终端输入
which python3
来查看路径,然后指定正确的路径。例如,若which python3
返回/usr/bin/python3
,则可输入virtualenv -p /usr/bin/python3 deepseek_env
。激活虚拟环境,在终端输入:
source deepseek_env/bin/activate
激活成功后,您会发现命令行的前缀多了
(deepseek_env)
,这表明您已成功进入这个独立的虚拟环境,后续安装的Python包将仅作用于该环境,不会影响系统全局的Python环境。
三、安装LM Studio客户端
- 打开浏览器,在地址栏输入LM Studio官网地址
lmstudio.ai
,这就如同在地图上输入目的地。若无法访问官网,可能是网络连接存在问题。您可以检查网络连接是否正常,尝试使用其他网站能否正常访问。若网络正常仍无法访问,可尝试使用代理服务器,就像换一条道路前往目的地。设置代理的方法因操作系统而异,在Ubuntu系统中,可在系统设置的网络选项中进行代理配置。 - 在官网页面中,找到对应Linux操作系统的安装包。下载时,务必注意安装包与服务器操作系统版本的一致性,否则可能导致安装失败,就像穿错衣服会让人感到不适一样。例如,若服务器使用的是64位Ubuntu系统,应下载对应的64位安装包。
下载完成后,解压安装包,进入解压后的目录。在终端输入安装命令:
sudo dpkg -i lmstudio_xxx.deb
在安装过程中,如果提示缺少依赖,按照提示使用
sudo apt-get install
命令安装相应的依赖即可。例如,若提示缺少libxxx
,则输入sudo apt-get install libxxx
进行安装。安装完成后,可在应用程序列表中找到LM Studio并启动它。
四、加载DeepSeek模型
- 打开LM Studio后,点击右下角的设置图标(形状类似一个小齿轮)。在弹出的设置菜单中,找到“Language”选项,将语言更改为简体中文。这样在后续操作中,界面显示将为中文,更加便于理解和操作,就像将游戏语言设置为中文一样,能降低操作难度。若找不到“Language”选项,很可能是LM Studio版本过低,您可以前往官网下载最新版本进行更新。更新方法通常是在官网下载最新的安装包,然后按照安装步骤重新安装,覆盖旧版本。
加载模型有两种方式:
- 自定义模型导入:如果您能够自行获取不同版本的DeepSeek模型文件,这就如同找到了宝藏。将模型文件下载到本地后,点击LM Studio左上方的文件夹图标。在弹出的文件选择窗口中,找到您下载好的模型目录,点击导入。这种方式的优势在于可以自主选择心仪的模型,并且下载速度通常更有保障,因为您可以选择可靠的下载源。在下载模型文件时,要特别注意文件的完整性。可以通过哈希校验来确保文件未损坏,例如使用
sha256sum
命令计算文件的哈希值,并与官方提供的哈希值进行比对,就像检查包裹是否有破损一样,确保模型文件的准确性。 - 通过LM Studio搜索下载:若您不知道如何自行寻找模型,可在LM Studio的设置中,找到常规部分,勾选“Use LM Studio's Hugging Face”选项。然后点击左上方的搜索图标(类似一个放大镜),在搜索框中输入“deepseek”,即可搜索到各种不同版本的模型。这种方式操作简单,但下载过程可能不太稳定,就像乘坐不太稳的小船。若搜索不到模型,首先检查网络连接是否正常,确保能够正常访问Hugging Face平台。其次,查看“Use LM Studio's Hugging Face”选项是否勾选正确,若未勾选或勾选后仍无法搜索,可尝试重新启动LM Studio或检查软件版本是否存在问题。
- 自定义模型导入:如果您能够自行获取不同版本的DeepSeek模型文件,这就如同找到了宝藏。将模型文件下载到本地后,点击LM Studio左上方的文件夹图标。在弹出的文件选择窗口中,找到您下载好的模型目录,点击导入。这种方式的优势在于可以自主选择心仪的模型,并且下载速度通常更有保障,因为您可以选择可靠的下载源。在下载模型文件时,要特别注意文件的完整性。可以通过哈希校验来确保文件未损坏,例如使用
模型参数规模选择
参数规模以B(Billion,十亿)为单位表示。数值越高,模型的复杂度越高,其理解和生成能力也越强,但同时对服务器性能的要求也越高,生成内容的速度会相应变慢,就像车辆越大,行驶速度可能越慢。
- 1.5B:适合刚开始体验或尝鲜的用户,模型文件大小约为3GB。不过,由于其性能相对较弱,不太推荐用于实际应用,类似于玩具车,虽然可以体验,但实用性较低。
- 7B:适用于普通的内容创作和开发测试场景,文件大小增加到8GB。推荐搭配16GB内存 + 8GB显存,能够满足大多数用户的基本需求,如同家用轿车,既实用又经济实惠。
- 8B:在7B的基础上更加精细,适用于对内容要求更高、更精确的场景,同样也适合大多数用户,就像稍微豪华一点的轿车,在性能和品质上有所提升。
- 14B:文件大小增加到16GB,建议配备12核CPU + 32GB内存 + 16GB显存,适用于专业及深度内容创作场景,类似于豪华跑车,性能强大,但对硬件配置要求也很高。更高的参数规模由于对硬件要求过高,且生成速度过慢,在实际应用中一般不推荐使用。
五、配置域名访问
(一)安装Nginx
在服务器终端输入以下命令安装Nginx:
sudo apt update sudo apt install nginx
在安装过程中,如果出现依赖问题,例如提示缺少某个依赖包,可使用
sudo apt-get -f install
命令进行修复。该命令会自动检测并安装缺失的依赖,就像为车辆修理损坏的零件一样,确保安装过程能够顺利进行。安装完成后,启动Nginx服务,在终端输入:
sudo systemctl start nginx
若启动失败,可在终端输入
sudo systemctl status nginx
命令查看错误日志。错误日志会详细记录启动失败的原因,例如可能是端口冲突、配置文件错误等。根据提示信息,针对性地解决问题,就像医生根据诊断报告为病人治病一样。设置Nginx开机自启,在终端输入:
sudo systemctl enable nginx
执行该命令后,每次服务器开机时,Nginx服务都会自动启动,无需手动干预,方便用户随时使用。
(二)配置Nginx反向代理
编辑Nginx配置文件,例如创建一个新的配置文件
deepseek.conf
,在终端输入:sudo nano /etc/nginx/sites-available/deepseek.conf
若无法使用
nano
编辑器,可尝试使用其他编辑器,如vim
。vim
编辑器功能强大,但操作方式与nano
有所不同。在vim
中,按i
键进入插入模式进行编辑,编辑完成后按Esc
键退出插入模式,然后输入:wq
保存并退出。在配置文件中添加以下内容,假设LM Studio运行在本地的
8080
端口:server { listen 80; server_name your_domain.com; # 请将此处替换为您的域名 location / { proxy_pass http://localhost:8080; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; } }
在配置时,务必将
server_name
替换为自己的域名,确保proxy_pass
的端口与LM Studio运行的端口一致。否则,就像寄错快递一样,无法正确访问到LM Studio服务。若不确定LM Studio运行的端口,可在LM Studio的设置中查看相关配置信息。保存并退出配置文件,然后创建软链接使配置生效,在终端输入:
sudo ln -s /etc/nginx/sites-available/deepseek.conf /etc/nginx/sites-enabled/
若提示文件已存在,说明之前可能已经创建过该软链接或存在同名文件。此时,可先在终端输入
sudo rm /etc/nginx/sites-enabled/deepseek.conf
删除原链接,然后重新执行创建软链接的命令。检查Nginx配置文件语法是否正确,在终端输入:
sudo nginx -t
若语法错误,根据提示仔细修改配置文件。语法错误可能是由于符号错误、缩进不当等原因导致,需要认真检查每一行配置,确保语法的准确性,就像修改作文中的错别字和语法错误一样。
若语法正确,重启Nginx服务,在终端输入:
sudo systemctl restart nginx
重启后,Nginx将加载新的配置文件,使反向代理配置生效。
(三)域名解析
在域名注册商的管理界面,将域名解析到服务器的公网IP地址。解析记录类型一般选择A记录,主机记录可以设置为
@
或www
。@
表示直接解析主域名,如example.com
;www
表示解析带www
前缀的域名,如www.example.com
。记录值填写服务器的公网IP地址。在解析时,要注意DNS服务器的选择。可以使用公共DNS服务器,如114.114.114.114或8.8.8.8 ,这些公共DNS服务器具有较高的稳定性和解析速度。解析生效的时间一般在几分钟到几小时不等,可在终端输入nslookup your_domain.com
命令来检查解析是否生效。如果显示的IP地址与服务器公网IP一致,说明解析成功;若不一致或显示无法解析,则需检查域名解析设置是否正确,比如IP地址是否填写错误,或者联系域名注册商客服寻求帮助。
六、开始使用DeepSeek
- 完成上述所有部署步骤后,打开LM Studio,点击左上方的对话框图标,这便是与DeepSeek交互的入口,类似于打开聊天软件的对话窗口。如果图标无法点击,可能是LM Studio程序出现异常。此时,先尝试关闭LM Studio,然后在终端通过命令重新启动(如果是通过命令行安装的,可在虚拟环境激活状态下,找到LM Studio的启动脚本执行启动命令;如果是图形化安装,可在应用程序列表中再次点击启动)。若还是无法解决,检查系统日志,查看是否有相关错误提示,例如可能是缺少某些依赖库导致程序无法正常运行。
- 在顶部的模型选择栏中,选择之前加载好的DeepSeek模型。若模型未显示在列表中,首先确认模型加载过程是否成功完成,可查看LM Studio的日志文件(通常在软件安装目录下的log文件夹中),检查是否有加载失败的错误信息。如果是自定义模型导入,检查模型文件路径是否正确,文件是否完整无损;若是通过LM Studio搜索下载的模型,检查网络连接是否稳定,以及Hugging Face平台是否正常访问,可尝试重新下载模型。
- 在开始使用前,还可以在顶部的模型设置区域对上下文长度和GPU负载等参数进行调整,以优化模型的运行效果。上下文长度决定了模型能够参考的前文内容长度,较长的上下文可以让模型生成的内容更好地承接上文,但也会增加计算量和内存消耗,一般根据实际需求在几百到几千范围内调整。GPU负载设置则关乎GPU资源的分配,合理的设置能让GPU在高效运行的同时避免过热或过载。例如,如果服务器的GPU性能较强,可以适当提高GPU负载以加快模型推理速度;若GPU性能有限,过高的负载可能导致运行不稳定甚至死机。设置参数时,要逐步调整并观察模型的运行效果和服务器的性能指标(如通过
nvidia - smi
命令查看GPU使用率和温度),避免因参数设置不当导致模型运行出错。 - 模型加载完成且参数设置妥当后,在对话框中输入你想要询问的问题或需要生成内容的指令,DeepSeek即可开始工作,为你生成相应的回答或内容。通过在浏览器中输入配置好的域名,即可在任何设备上访问并使用DeepSeek。若无法访问,首先检查Nginx服务是否正常运行,可在终端输入
sudo systemctl status nginx
查看服务状态。如果Nginx服务正常,检查防火墙设置,确保80端口(如果使用了SSL证书,还需检查443端口)已开放。在Ubuntu系统中,可以使用ufw
工具来管理防火墙,例如输入sudo ufw allow 80
和sudo ufw allow 443
命令开放相应端口。同时,再次确认域名解析是否生效,以及Nginx配置文件中的域名和端口设置是否正确。
七、优化教程
(一)服务器性能优化
- 内存优化:定期清理服务器内存,关闭不必要的后台程序。可以使用
top
命令查看当前运行的程序,该命令会按照CPU或内存使用率对进程进行排序展示。找到占用内存大且当前不需要的程序,记录其进程ID(PID),然后用kill -9 进程ID
命令关闭该进程。例如,如果发现xxx
程序占用大量内存且当前无需运行,在top
命令界面查看到其PID为1234,即可输入kill -9 1234
关闭该程序,释放内存资源。此外,还可以使用sysctl
命令调整系统内存参数,如vm.swappiness
,该参数表示系统将内存数据交换到磁盘交换空间(swap)的倾向程度,取值范围是0 - 100,可根据服务器内存使用情况适当降低该值,减少内存交换带来的性能损耗,例如输入sudo sysctl -w vm.swappiness = 10
将其设置为10 。 - 磁盘优化:定期清理磁盘空间,删除不必要的文件。可以使用
df -h
命令查看磁盘使用情况,该命令会以人类可读的方式展示各个磁盘分区的总容量、已使用容量、可用容量等信息。用rm
命令删除文件,例如rm -rf 文件夹名
可删除指定的文件夹及其所有内容(使用rm -rf
命令时需谨慎,避免误删重要文件)。对于SSD硬盘,在Linux系统下,一般不需要手动进行碎片整理,系统会自动对其进行优化,以保持良好的读写性能;对于传统机械硬盘,可以使用e4defrag
工具进行碎片整理,先安装该工具(在Ubuntu中可使用sudo apt - get install e4defrag
命令安装),然后输入e4defrag /dev/sda1
(将/dev/sda1
替换为实际需要整理的硬盘分区)对指定分区进行碎片整理,提高磁盘读写速度。 - CPU优化:合理分配CPU资源,避免CPU过度负载。可以使用
nice
命令调整程序的优先级,nice
值的范围是 - 20(最高优先级)到19(最低优先级),默认值为0。例如,nice -n 10 程序命令
表示以优先级10运行程序命令
,数字越大优先级越低,这样可以让重要的程序获得更多的CPU资源。另外,对于支持多线程的程序,合理设置线程数也能优化CPU使用效率。比如在运行DeepSeek相关程序时,如果服务器CPU核心数较多,可以适当增加线程数,但要注意不要超过CPU核心数过多,以免造成资源竞争反而降低性能。
(二)模型效果优化
- 参数调整:根据实际使用场景,调整模型的上下文长度、温度等参数。上下文长度前面已提及,它影响模型对前文的记忆能力。温度参数则影响生成内容的随机性,取值范围一般在0 - 1之间,温度越高,生成内容越随机多样,但也可能出现逻辑连贯性变差的情况;温度越低,生成内容越保守、更具确定性,但可能会显得较为单调。例如,在进行创意写作时,可以适当提高温度值(如0.8 - 1.0),激发模型的创造力;在进行知识问答或需要准确回复的场景中,可将温度设置得较低(如0.5 - 0.7),确保回答的准确性和逻辑性。
- 模型微调:如果有特定的应用场景,可以使用自己的数据对模型进行微调,让模型更贴合需求。不过这需要一定的技术基础和数据准备。首先,要准备高质量的数据集,数据应与目标应用场景相关且标注准确。然后,使用深度学习框架(如PyTorch或TensorFlow)提供的工具和接口进行微调操作。在微调过程中,需要设置合适的训练参数,如学习率、训练轮数等,这些参数的选择会影响微调的效果和速度。同时,要注意防止过拟合现象,可通过交叉验证、正则化等方法进行控制。微调后的模型能够在特定领域表现得更加出色,提供更符合用户期望的结果。
八、常见问题与解决方案
- 下载速度慢:可以修改LM Studio的配置文件,将默认的Hugging Face镜像替换为国内镜像,以提高下载速度。具体操作是找到LM Studio的配置文件(一般在软件安装目录下的config文件夹中,不同操作系统和安装方式可能略有差异),使用文本编辑器打开,查找与镜像源相关的配置项(可能是
HF_HOME
或HF_MIRROR
等类似的变量),将其值修改为国内的镜像地址,如https://mirror.sjtu.edu.cn/hugging - face/
。修改完成后保存文件,重新启动LM Studio使设置生效。此外,也可以检查网络环境,尝试更换网络连接,比如从WiFi切换到有线网络,或者联系网络服务提供商提升网络带宽。 - 模型加载失败:首先确保模型文件的扩展名是
.gguf
,如果文件格式不正确,模型肯定无法加载。然后检查LM Studio是否为最新版本,旧版本可能存在兼容性问题导致无法加载模型,可前往官网下载最新版本进行更新。同时,检查模型文件的路径是否正确,权限是否足够。若路径错误,重新指定正确的模型文件路径;若权限不足,使用chmod
命令修改文件权限,例如chmod 755 模型文件名.gguf
赋予文件适当的读取和执行权限。另外,如果模型文件过大,服务器内存不足也可能导致加载失败,可尝试增加服务器内存或选择较小规模的模型。 - 运行速度慢/GPU未调用:确认是否安装了最新的CUDA驱动,旧版本的驱动可能无法充分发挥GPU性能甚至导致GPU无法被调用。可前往NVIDIA官方网站,根据显卡型号和操作系统下载最新的驱动程序,安装完成后重启服务器。还可以检查CUDA环境变量配置是否正确,再次确认
~/.bashrc
文件中添加的CUDA路径和库路径是否准确无误,可通过echo $PATH
和echo $LD_LIBRARY_PATH
命令查看环境变量值是否包含CUDA相关路径。此外,使用nvidia - smi
命令查看GPU使用情况,确认GPU是否被其他程序占用,如果被占用,关闭占用GPU的程序,释放GPU资源。 - 域名访问失败:检查Nginx配置是否正确,仔细核对
deepseek.conf
配置文件中的server_name
是否为正确的域名,proxy_pass
的端口是否与LM Studio运行的端口一致,配置文件中的语法是否有错误(可通过sudo nginx - t
命令检查)。域名解析是否生效,再次使用nslookup your_domain.com
命令检查解析结果。以及服务器防火墙是否开放了80端口(如果使用SSL,还需检查443端口),如前文所述,在Ubuntu系统中可以使用ufw
工具进行端口开放设置。如果以上都正常,检查服务器的网络连接是否稳定,是否存在网络故障导致无法对外提供服务。