pandas 是为了解决数据分析任务而创建的Python 库,源于NumPy ,经常被用于对数据挖掘前期数据的处理工作。pandas提供了大量的处理数据的函数和方法,并且还纳入了大量库与很多标准的数据模型,能让我们更加高效地处理大型数据集。但是大家在使用pandas的过程中,经常会遇到这样那样的问题,下面,小编就整理了一些大家需要掌握的pandas 的基础知识,希望对大家有所帮助。
以下文章来源于: 数据分析1480
作者:刘顺祥
背景介绍
经常会有一些朋友问我类似的问题,“哎呀,这个数据该怎么处理啊,我希望结果是这样的,麻烦刘老师帮我看看。”、“刘老师,怎么把一列数据拆分出来,并取出最后一个拆分结果呀?”、“刘老师,怎么将Json数据读入到Python中呢?”。在我看来,这些问题都可以借助于Pandas模块完成,因为Pandas属于专门做数据预处理的数据科学包。下面来介绍一下我认为Pandas模块中需要掌握的功能和函数。
数据读写
案例演示
# 读入MySQL数据库数据 # 导入第三方模块 import pymysql # 连接MySQL数据库 conn = pymysql.connect(host='localhost', user='root', password='test', database='test', port=3306, charset='utf8') # 读取数据 user = pd.read_sql('select * from topy', conn) # 关闭连接 conn.close() # 数据输出 User
数据初印象
案例演示
# 数据读取 sec_cars = pd.read_table(r'C:\Users\Administrator\Desktop\sec_cars.csv', sep = ',') # 预览数据的前五行 sec_cars.head() # 查看数据的行列数 print('数据集的行列数:\n',sec_cars.shape) # 查看数据集每个变量的数据类型 print('各变量的数据类型:\n',sec_cars.dtypes) # 数据的描述性统计 sec_cars.describe()
案例演示
# 数据读入 df = pd.read_excel(r'C:\Users\Administrator\Desktop\data_test05.xlsx') # 缺失观测的检测 print('数据集中是否存在缺失值:\n',any(df.isnull())) # 删除法之记录删除 df.dropna() # 删除法之变量删除 df.drop('age', axis = 1) # 替换法之前向替换 df.fillna(method = 'ffill') # 替换法之后向替换 df.fillna(method = 'bfill') # 替换法之常数替换 df.fillna(value = 0) # 替换法之统计值替换 df.fillna(value = {'gender':df.gender.mode()[0], 'age':df.age.mean(), 'income':df.income.median()})
类型转换与元素及运算
案例演示
# 数据读入 df = pd.read_excel(r'C:\Users\Administrator\Desktop\data_test03.xlsx') # 将birthday变量转换为日期型 df.birthday = pd.to_datetime(df.birthday, format = '%Y/%m/%d') # 将手机号转换为字符串 df.tel = df.tel.astype('str') # 新增年龄和工龄两列 df['age'] = pd.datetime.today().year - df.birthday.dt.year df['workage'] = pd.datetime.today().year - df.start_work.dt.year # 将手机号中间四位隐藏起来 df.tel = df.tel.apply(func = lambda x : x.replace(x[3:7], '****')) # 取出邮箱的域名 df['email_domain'] = df.email.apply(func = lambda x : x.split('@')[1]) # 取出人员的专业信息 df['profession'] = df.other.str.findall('专业:(.*?),') # 去除birthday、start_work和other变量 df.drop(['birthday','start_work','other'], axis = 1, inplace = True)
数据合并、连接与汇总
案例演示
# 构造数据集df1和df2 df1 = pd.DataFrame({'name':['张三','李四','王二'], 'age':[21,25,22], 'gender':['男','女','男']}) df2 = pd.DataFrame({'name':['丁一','赵五'], 'age':[23,22], 'gender':['女','女']}) # 数据集的纵向合并 pd.concat([df1,df2] , keys = ['df1','df2']) # 如果df2数据集中的“姓名变量为Name” df2 = pd.DataFrame({'Name':['丁一','赵五'], 'age':[23,22], 'gender':['女','女']}) # 数据集的纵向合并 pd.concat([df1,df2]) # 构造数据集 df3 = pd.DataFrame({'id':[1,2,3,4,5],'name':['张三','李四','王二','丁一','赵五'], 'age':[27,24,25,23,25],'gender':['男','男','男','女','女']}) df4 = pd.DataFrame({'Id':[1,2,2,4,4,4,5], 'score':[83,81,87,75,86,74,88] 'kemu':['科目1','科目1','科目2','科目1','科目2','科目3','科目1']}) df5 = pd.DataFrame({'id':[1,3,5],'name':['张三','王二','赵五'], 'income':[13500,18000,15000]}) # 三表的数据连接 # 首先df3和df4连接 merge1 = pd.merge(left = df3, right = df4, how = 'left', left_on='id', right_on='Id') merge1 # 再将连接结果与df5连接 merge2 = pd.merge(left = merge1, right = df5, how = 'left') merge2
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
本人基本情况: 学校及专业:厦门大学经济学院应用统计 实习经历:快手数据分析、字节数据分析、百度数据分析 Offer情况:北京 ...
2025-01-3001专家简介 徐杨老师,CDA数据科学研究院教研副总监,主要负责CDA认证项目以及机器学习/人工智能类课程的研发与授课,负责过中 ...
2025-01-29持证人简介 郭畅,CDA数据分析师二级持证人,安徽大学毕业,目前就职于徽商银行总行大数据部,两年工作经验,主要参与两项跨部 ...
2025-01-282025年刚开启,知乎上就出现了一个热帖: 2024年突然出现的经济下行,使各行各业都感觉到压力山大。有人说,大环境越来越不好了 ...
2025-01-27在数据分析的世界里,“对比”是一种简单且有效的方法。这就像两个女孩子穿同一款式的衣服,效果不一样。 很多人都听过“货比三 ...
2025-01-26数据指标体系 “数据为王”相信大家都听说过。当前,数据信息不再仅仅是传递的媒介,它成为了驱动经济发展的新燃料。对于企业而 ...
2025-01-26在职场中,当你遇到问题的时候,如果感到无从下手,或者抓不到重点,可能是因为你掌握的思维模型不够多。 一个好用的思维模型, ...
2025-01-25俗话说的好“文不如表,表不如图”,图的信息传达效率很高,是数据汇报、数据展示的重要手段。好的数据展示不仅需要有图,还要选 ...
2025-01-24数据分析报告至关重要 一份高质量的数据分析报告不仅能够揭示数据背后的真相,还能为企业决策者提供有价值的洞察和建议。 年薪70 ...
2025-01-24又到一年年终时,各位打工人也迎来了展示成果的关键时刻 —— 年终述职。一份出色的年终述职报告,不仅能全面呈现你的工作价值, ...
2025-01-23“用户旅程分析”概念 用户旅程图又叫做用户体验地图,它是用于描述用户在与产品或服务互动的过程中所经历的各个阶段、触点和情 ...
2025-01-22在竞争激烈的商业世界中,竞品分析对于企业的发展至关重要。今天,我们就来详细聊聊数据分析师写竞品分析的那些事儿。 一、明确 ...
2025-01-22在数据分析领域,Excel作为一种普及率极高且功能强大的工具,无疑为无数专业人士提供了便捷的解决方案。尽管Excel自带了丰富的功 ...
2025-01-17在这个瞬息万变的时代,许多人都在寻找能让他们脱颖而出的职业。而数据分析师,作为大数据和人工智能时代的热门职业,自然吸引了 ...
2025-01-14Python作为一门功能强大的编程语言,已经成为数据分析和可视化领域的重要工具。无论你是数据分析的新手,还是经验丰富的专业人士 ...
2025-01-10完全靠数据决策,真的靠谱吗? 最近几年,“数据驱动”成了商界最火的关键词之一,但靠数据就能走天下?其实不然!那些真正成功 ...
2025-01-09SparkSQL 结构化数据处理流程及原理是什么?Spark SQL 可以使用现有的Hive元存储、SerDes 和 UDF。它可以使用 JDBC/ODB ...
2025-01-09在如今这个信息爆炸的时代,数据已然成为企业的生命线。无论是科技公司还是传统行业,数据分析正在深刻地影响着商业决策以及未来 ...
2025-01-08“数据为王”相信大家都听说过。当前,数据信息不再仅仅是传递的媒介,它成为了驱动经济发展的新燃料。对于企业而言,数据指标体 ...
2025-01-07在职场中,当你遇到问题的时候,如果感到无从下手,或者抓不到重点,可能是因为你掌握的思维模型不够多。 一个好用的思维模型, ...
2025-01-06