百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

实践cline+r1+claude 这种 deepclaude 自动编程思想

csdh11 2025-03-23 18:36 10 浏览

#每天学python##deepseek##vscode##自动编程#

如何使用:

vscode里安装cline最新插件,在cline插件里plan调用deepseekR1模型,act调用Claude模型。

vscode的 cline 界面

在 plan 里提需求:

使用 cline 里的的 fetch 这个 mcpserver,用 python 语言,实现把一个网页里的正文,转换成 md 格式,然后输出到一个新建的 md 文件里。要求是程序运行时要求用户输入 url。

plan 会产生计划并让你决定是否实施

deepseek R1 给出的计划与建议

R1生成的计划:

1. 当前是PLAN MODE,需要先制定计划并与用户讨论

2. 任务要求:

使用fetch-mcp服务器获取网页内容

使用Python实现

将网页正文转换为markdown格式

输出到新建的md文件

运行时要求用户输入URL

3. 需要确认的细节:

输出md文件的路径和命名规则

是否需要处理网页中的图片、链接等元素

是否需要特定的markdown格式要求

4. 计划步骤:

使用fetch-mcp的fetch_markdown工具获取网页markdown

编写Python脚本处理用户输入和文件输出

创建新的md文件并写入转换后的内容

R1 提出的实施建议:

我建议按照以下步骤实现这个网页转markdown工具:

1. 使用fetch-mcp服务器的fetch_markdown工具获取网页内容

2. 编写Python脚本实现以下功能:

提示用户输入URL

调用fetch_markdown工具获取markdown内容

将内容写入新的markdown文件

3. 文件输出方案:

默认输出到当前目录

文件名使用网页标题或当前时间戳

文件扩展名为.md

确认后到 act 调用 claude 模型自动编写python 代码,然后根据提示一步一步调整优化,直到代码跑通。

完成后的代码运行自动产生 md 文件

下面是完整的python代码:

import json
import requests
from datetime import datetime
from urllib.parse import urlparse
from bs4 import BeautifulSoup
import re

def clean_url(url):
    """Clean and validate URL."""
    # Remove control characters and extra whitespace
    url = ''.join(char for char in url if ord(char) >= 32).strip()
    
    # If multiple URLs are present, take the first complete one
    if url.count('http') > 1:
        # Find all occurrences of http:// or https://
        starts = [i for i in range(len(url)) if url.startswith(('http://', 'https://'), i)]
        if starts:
            # Take the first URL by finding the next occurrence or end of string
            start = starts[0]
            next_start = starts[1] if len(starts) > 1 else len(url)
            url = url[start:next_start].strip()
    
    # Add https:// if no protocol is specified
    if not url.startswith(('http://', 'https://')):
        url = 'https://' + url
    
    return url

def get_url():
    """Get URL input from user."""
    while True:
        url = input("Please enter the webpage URL: ").strip()
        if url:
            try:
                url = clean_url(url)
                return url
            except Exception as e:
                print(f"Error processing URL: {str(e)}")
                continue
        print("URL cannot be empty. Please try again.")

def fetch_markdown(url):
    """Fetch webpage content and convert to markdown."""
    try:
        # Fetch webpage content
        headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'
        }
        response = requests.get(url, headers=headers)
        response.raise_for_status()
        
        # Parse HTML content
        soup = BeautifulSoup(response.content, 'html.parser')
        
        # Remove unwanted elements
        for tag in soup(['script', 'style', 'nav', 'footer', 'iframe']):
            tag.decompose()
        
        # Get title
        title = soup.title.string if soup.title else "Untitled"
        content = [f"# {title.strip()}\n"]
        
        # Get main content
        main_content = soup.find('article') or soup.find('main') or soup.find('body')
        
        # Process paragraphs and headers
        for element in main_content.find_all(['p', 'h1', 'h2', 'h3', 'h4', 'h5', 'h6']):
            text = element.get_text().strip()
            if text:
                if element.name.startswith('h'):
                    level = int(element.name[1])
                    content.append(f"\n{'#' * level} {text}\n")
                else:
                    content.append(f"\n{text}\n")
        
        return '\n'.join(content)
    except Exception as e:
        print(f"Error: {str(e)}")
        return None

def generate_filename(url):
    """Generate a filename based on URL and timestamp."""
    timestamp = datetime.now().strftime("%Y%m%d_%H%M%S")
    domain = urlparse(url).netloc
    return f"{domain}_{timestamp}.md"

def main():
    # Get URL from user
    url = get_url()
    
    # Fetch markdown content
    print("Fetching content...")
    content = fetch_markdown(url)
    
    if content:
        # Generate filename
        filename = generate_filename(url)
        
        # Write content to file
        try:
            with open(filename, 'w', encoding='utf-8') as f:
                f.write(content)
            print(f"\nSuccess! Content saved to: {filename}")
        except Exception as e:
            print(f"Error saving file: {str(e)}")
    else:
        print("Failed to fetch content from the URL.")

if __name__ == "__main__":
    main()

相关推荐

探索Java项目中日志系统最佳实践:从入门到精通

探索Java项目中日志系统最佳实践:从入门到精通在现代软件开发中,日志系统如同一位默默无闻却至关重要的管家,它记录了程序运行中的各种事件,为我们排查问题、监控性能和优化系统提供了宝贵的依据。在Java...

用了这么多年的java日志框架,你真的弄懂了吗?

在项目开发过程中,有一个必不可少的环节就是记录日志,相信只要是个程序员都用过,可是咱们自问下,用了这么多年的日志框架,你确定自己真弄懂了日志框架的来龙去脉嘛?下面笔者就详细聊聊java中常用日志框架的...

物理老师教你学Java语言(中篇)(物理专业学编程)

第四章物质的基本结构——类与对象...

一文搞定!Spring Boot3 定时任务操作全攻略

各位互联网大厂的后端开发小伙伴们,在使用SpringBoot3开发项目时,你是否遇到过定时任务实现的难题呢?比如任务调度时间不准确,代码报错却找不到方向,是不是特别头疼?如今,随着互联网业务规模...

你还不懂java的日志系统吗 ?(java的日志类)

一、背景在java的开发中,使用最多也绕不过去的一个话题就是日志,在程序中除了业务代码外,使用最多的就是打印日志。经常听到的这样一句话就是“打个日志调试下”,没错在日常的开发、调试过程中打印日志是常干...

谈谈枚举的新用法--java(java枚举的作用与好处)

问题的由来前段时间改游戏buff功能,干了一件愚蠢的事情,那就是把枚举和运算集合在一起,然后运行一段时间后buff就出现各种问题,我当时懵逼了!事情是这样的,做过游戏的都知道,buff,需要分类型,且...

你还不懂java的日志系统吗(javaw 日志)

一、背景在java的开发中,使用最多也绕不过去的一个话题就是日志,在程序中除了业务代码外,使用最多的就是打印日志。经常听到的这样一句话就是“打个日志调试下”,没错在日常的开发、调试过程中打印日志是常干...

Java 8之后的那些新特性(三):Java System Logger

去年12月份log4j日志框架的一个漏洞,给Java整个行业造成了非常大的影响。这个事情也顺带把log4j这个日志框架推到了争议的最前线。在Java领域,log4j可能相对比较流行。而在log4j之外...

Java开发中的日志管理:让程序“开口说话”

Java开发中的日志管理:让程序“开口说话”日志是程序员的朋友,也是程序的“嘴巴”。它能让程序在运行过程中“开口说话”,告诉我们它的状态、行为以及遇到的问题。在Java开发中,良好的日志管理不仅能帮助...

吊打面试官(十二)--Java语言中ArrayList类一文全掌握

导读...

OS X 效率启动器 Alfred 详解与使用技巧

问:为什么要在Mac上使用效率启动器类应用?答:在非特殊专业用户的环境下,(每天)用户一般可以在系统中进行上百次操作,可以是点击,也可以是拖拽,但这些只是过程,而我们的真正目的是想获得结果,也就是...

Java中 高级的异常处理(java中异常处理的两种方式)

介绍异常处理是软件开发的一个关键方面,尤其是在Java中,这种语言以其稳健性和平台独立性而闻名。正确的异常处理不仅可以防止应用程序崩溃,还有助于调试并向用户提供有意义的反馈。...

【性能调优】全方位教你定位慢SQL,方法介绍下!

1.使用数据库自带工具...

全面了解mysql锁机制(InnoDB)与问题排查

MySQL/InnoDB的加锁,一直是一个常见的话题。例如,数据库如果有高并发请求,如何保证数据完整性?产生死锁问题如何排查并解决?下面是不同锁等级的区别表级锁:开销小,加锁快;不会出现死锁;锁定粒度...

看懂这篇文章,你就懂了数据库死锁产生的场景和解决方法

一、什么是死锁加锁(Locking)是数据库在并发访问时保证数据一致性和完整性的主要机制。任何事务都需要获得相应对象上的锁才能访问数据,读取数据的事务通常只需要获得读锁(共享锁),修改数据的事务需要获...