博客
关于我
codeforce round625 div2 (a+b)map
阅读量:618 次
发布时间:2019-03-13

本文共 530 字,大约阅读时间需要 1 分钟。

第一题很简单,但是我做的时候一直re,之后发现少考虑了一种分母为零的情况,导致程序提前退出,需要注意一下,不多阐述,下面是b题

在这里插入图片描述
这道题的大意是对于一组数据,每个数对应一个价值如果满足序号差等于价值差他们可以组成一组问最大的组合大小,我看完题的第一想法是一个n方的dp,。大概就是从小到大依次确定当前的最优解,也就是说对于每个位置i我们需要遍历1到i-1的过程如果满足ci+1-ci=bi+1-bi就尝试更新保证过程量一定是对的,但是复杂度不理想。
所以我们换一个角度去看这个问题对于这个式子ci+1-ci=bi+1-bi。移项后我们发现只需满足ci+1-bi+1=ci-bi即可也就是说我们只需把自身差相等的所有项的价值累加即可,而这个操作我们借助map可以很简单的达到

#include
#define ll long long using namespace std;int main(){ ll n; cin>>n; map
mp; ll a; ll ma=0; for(int i=1;i<=n;i++){ cin>>a; mp[a-i]+=a; ma=max(ma,mp[a-i]); } cout<

转载地址:http://hdpaz.baihongyu.com/

你可能感兴趣的文章
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate动态添加表
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
NHibernate示例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>