Alice 和 Bob 共有一个无向图,其中包含 n 个节点和 3 种类型的边:
类型 1:只能由 Alice 遍历。 类型 2:只能由 Bob 遍历。 类型 3:Alice 和 Bob 都可以遍历。 给你一个数组 edges ,其中 edges[i] = [typei, ui, vi] 表示节点 ui 和 vi 之间存在类型为 typei 的双向边。请你在保证图仍能够被 Alice和 Bob 完全遍历的前提下,找出可以删除的最大边数。如果从任何节点开始,Alice 和 Bob 都可以到达所有其他节点,则认为图是可以完全遍历的。
返回可以删除的最大边数,如果 Alice 和 Bob 无法完全遍历图,则返回 -1 。
示例 1:
输入:n = 4, edges = [[3,1,2],[3,2,3],[1,1,3],[1,2,4],[1,1,2],[2,3,4]]
输出:2
解释:如果删除 [1,1,2] 和 [1,1,3] 这两条边,Alice 和 Bob 仍然可以完全遍历这个图。再删除任何其他的边都无法保证图可以完全遍历。所以可以删除的最大边数是 2 。
示例 2:输入:n = 4, edges = [[3,1,2],[3,2,3],[1,1,4],[2,1,4]]
输出:0
解释:注意,删除任何一条边都会使 Alice 和 Bob 无法完全遍历这个图。
示例 3:输入:n = 4, edges = [[3,2,3],[1,1,2],[2,3,4]] 输出:-1 解释:在当前图中,Alice 无法从其他节点到达节点 4 。类似地,Bob 也不能达到节点 1 。因此,图无法完全遍历。
提示:
1 <= n <= 10^5 1 <= edges.length <= min(10^5, 3 * n * (n-1) / 2)
edges[i].length == 3 1 <= edges[i][0] <= 3 1 <= edges[i][1] <
edges[i][2] <= n 所有元组 (typei, ui, vi) 互不相同来源:力扣(LeetCode)
链接:https://leetcode-cn.com/problems/remove-max-number-of-edges-to-keep-graph-fully-traversable
著作权归领扣网络所有。商业转载请联系官方授权,非商业转载请注明出处。
感觉找可删除的边需要用dfs,但是怎么找呢…
分类讨论,首先,如果公用边存在环,那么删除环中的边肯定是安全的。这时候A手中的图应该是类型1的边加上删除完环之后的公用边,并且此时A中的图是不存在公用边的环的。再看A手中的图有多少回边即可。回边数等于环数,而由于现在A中不存在公用边环,拆哪一个环都可以拆A中自己的边,从而不会影响到B。B同理,最后的可拆的边数等于最开始公用边中的环数加上A,B中的环数。
class Solution {
void addEdge(HashMap<Integer, List<Integer>> map, int[] edge) {
if(!map.containsKey(edge[1])) {
map.put(edge[1], new LinkedList<Integer>());
}
map.get(edge[1]).add(edge[2]);
if(!map.containsKey(edge[2])) {
map.put(edge[2], new LinkedList<Integer>());
}
map.get(edge[2]).add(edge[1]);
}
void dfs(HashMap<Integer, List<Integer>> map, int node, int from, List<Integer[]> backs) {
List<Integer> edges = map.get(node);
map.remove(node);
int fromCount = 0;
for(int i : edges) {
if(i == from && fromCount == 0) {
++fromCount;
continue;
}
if(map.containsKey(i)) {
backs.add(new Integer[]{node, i});
dfs(map, i, node, backs);
} else {
++backEdges;
}
}
}
int lightDfs(HashMap<Integer, List<Integer>> map, int node, int from) {
List<Integer> edges = map.get(node);
map.remove(node);
int fromCount = 0;
int visitedNum = 1;
for(int i : edges) {
if(i == from && fromCount == 0) {
++fromCount;
continue;
}
if(map.containsKey(i)) {
visitedNum += lightDfs(map, i, node);
} else {
++backEdges;
}
}
return visitedNum;
}
int backEdges;
public int maxNumEdgesToRemove(int n, int[][] edges) {
backEdges = 0;
//三次深度优先搜索吧
HashMap<Integer, List<Integer>> map3 = new HashMap<Integer, List<Integer>>();
HashMap<Integer, List<Integer>> map2 = new HashMap<Integer, List<Integer>>();
HashMap<Integer, List<Integer>> map1 = new HashMap<Integer, List<Integer>>();
for(int[] edge : edges) {
if(edge[0] == 3) {
addEdge(map3, edge);
} else if(edge[0] == 2) {
addEdge(map2, edge);
} else if(edge[0] == 1){
addEdge(map1, edge);
}
}
List<Integer[]> back3 = new LinkedList<Integer[]>();
while(!map3.isEmpty())
dfs(map3, map3.keySet().iterator().next(), -1, back3);
for(Integer[] back : back3) {
//添加非回边
int[] toAdd = new int[] {3, back[0], back[1]};
addEdge(map2, toAdd);
addEdge(map1, toAdd);
}
if(lightDfs(map2, map2.keySet().iterator().next(), -1) != n || lightDfs(map1, map1.keySet().iterator().next(), -1) != n)
return -1;
return backEdges / 2;
}
}
跑起来挺慢的…java的HashMap是真的辣鸡