:D 获取中...

你好呀,欢迎来到滴稳代码分享

代码分享区

数据分析

CSV文件读取与分析

import pandas as pd

# 读取CSV文件
df = pd.read_csv('data.csv')

# 查看基本信息
print(df.info())

# 查看数据集行数和列数
rows, columns = df.shape

# 查看数据集行数和列数
if rows > 0:
    # 显示数据集行数和列数
    print(f'数据包含 {rows} 行和 {columns} 列')
    
    # 显示数据集行数和列数
    print(df.head().to_string())
else:
    print('数据为空')
自动化

文件批量重命名

import os
import re

# 定义文件夹路径
folder_path = './files'

# 遍历文件夹中的所有文件
for filename in os.listdir(folder_path):
    # 获取文件扩展名
    name, ext = os.path.splitext(filename)
    
    # 使用正则表达式移除特殊字符
    new_name = re.sub('[^a-zA-Z0-9]', '_', name)
    
    # 构建新的文件名
    new_filename = new_name + ext
    
    # 构建旧文件和新文件的完整路径
    old_path = os.path.join(folder_path, filename)
    new_path = os.path.join(folder_path, new_filename)
    
    # 重命名文件
    os.rename(old_path, new_path)
    print(f"已重命名: {filename} -> {new_filename}")
爬虫

简单的网页爬虫

import requests
from bs4 import BeautifulSoup

# 目标URL
url = 'https://example.com'

# 设置请求头,模拟浏览器访问
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'
}

# 发送HTTP请求
response = requests.get(url, headers=headers)

# 检查响应状态码
if response.status_code == 200:
    # 解析HTML内容
    soup = BeautifulSoup(response.text, 'html.parser')
    
    # 提取所有链接
    links = soup.find_all('a')
    
    # 打印所有链接
    for link in links:
        href = link.get('href')
        text = link.get_text()
        print(f"文本: {text}, URL: {href}")
else:
    print(f"请求失败,状态码: {response.status_code}")

人生的路上,最美的风景在身边,最深厚的情感在心底。

简单,是内心里的从容和淡定,对于生活不苛求太多,懂得宽容,安然素淡,那份恬淡就像轻轻走过的岁月,不染风尘,心若简单纯净,则万物皆美。

生活原本静谧,又何必把它搞得乌烟瘴气,静静地走过生活,不刻意留下什么痕迹,或许会更好。生活还需努力,只是不必刻意。花开枝头不是一蹴而就、一劳永逸,美丽只在于绽放的过程,没那么多高低。

茫茫人海,感恩与你不期而遇。

  • 梦想实现

    相距很远 努力实现
  • 生活态度

    颇为满意 小有不足
  • 未来期望

    实现理想 彼此幸福~
  • 迷茫指数

    时而清醒 时而迷茫