博客
关于我
最大整除子集
阅读量:120 次
发布时间:2019-02-26

本文共 1453 字,大约阅读时间需要 4 分钟。

文章目录

1、描述

给你一个由 无重复 正整数组成的集合 nums ,请你找出并返回其中最大的整除子集 answer ,子集中每一元素对 (answer[i], answer[j]) 都应当满足:

answer[i] % answer[j] == 0 ,或
answer[j] % answer[i] == 0
如果存在多个有效解子集,返回其中任何一个均可。

示例 1:

输入:nums = [1,2,3]

输出:[1,2]
解释:[1,3] 也会被视为正确答案。
示例 2:

输入:nums = [1,2,4,8]

输出:[1,2,4,8]

来源:力扣(LeetCode)

著作权归领扣网络所有。商业转载请联系官方授权,非商业转载请注明出处。

2、关键字

数组,最大,

3、思路

dp两层遍历,求出最长子集的数量,然后使用两个临时变量记录个数,和最大值,

然后再遍历一遍nums,通过最大值和个数来抽取结果集。

4、notes

1、dp数组获取满足条件的个数,然后通过两个临时变量做一些记录,然后再遍历一遍原数组,进行结果集的调出。

2、最后获取结果集的元素的时候,需要满足两个条件,整除,且dp[i]也满足(最大的个数),

5、复杂度

时间:O(n平方)计算数组dp元素,排序是O(nlogn),倒序遍历是O(N)

空间:O(N),dp数组的长度

6、code

class Solution {   public:    vector
largestDivisibleSubset(vector
& nums) { int n = nums.size(); vector
dp (n,1); // 初始化为1 int maxVal = nums[0]; // 最大值 int maxSize = 1; // 结果集的个数 vector
res; sort(nums.begin(),nums.end()); // 排个序 for(int i = 1; i < n; i++){ for(int j = 0; j
=0; i--){ if(maxVal>=nums[i] && maxVal % nums[i] == 0){ res.push_back(nums[i]); } }*/ for (int i = n - 1;i >= 0,maxSize > 0; i--){ // 个数满足,从右往左 if(dp[i] == maxSize && maxVal % nums[i] == 0){ // 个数满足,且符合整除,这两个条件才是一个结果 res.push_back(nums[i]); maxVal = nums[i]; // 这里不写就错,更新最大值,变得越来越小 maxSize--; // 这里也更新一下 } } return res; }};
你可能感兴趣的文章
Nginx:NginxConfig可视化配置工具安装
查看>>
Nginx:现代Web服务器的瑞士军刀 | 文章末尾送典藏书籍
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
NHibernate示例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>